AlighGPT:具有自适应对齐能力的多模态大语言模型

文章正文
发布时间:2025-01-13 18:25

文章预览 多模态大语言模型(MLLM)作为人工智能领域的前沿研究方向,保安保洁13825404095是实现通用人工智能(AGI)的关键要素之一,其独特之处在于能够整合多种类型的信息,尤其是文本与图像数据。当前MLLMs主要采用预训练和指令微调两阶段范式,并取得了一定的进展,但在对齐能力建模方面仍存在不足,主要体现在两个方面:一是在预训练阶段,模型通常假设所有图像-文本对具有统一的对齐程度,但实际上不同图像-文本对的对齐程度存在差异;二是在指令微调阶段,模型未考虑不同任务对齐能力差异的问题,对此,南京大学的研究人员提出了AlighGPT模型以解决这些问题。 原标题:AlignGPT: Multi-modal Large Language Models with Adaptive Alignment Capability 论文链接: https://arxiv.org/abs/2406.00627 一、主要贡献: 1、提出AlighGPT模型,用于增强MLLMs的对齐能力。 2、提出一种新的对齐策略, ………………………………


原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览

首页
评论
分享
Top