「多模态LLM」最新介绍!数据、论文集直接打包带走

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

「多模态LLM」最新介绍!数据、论文集直接打包带走

进展跟踪链接(awesome-mllm,实时更新):https://github.com/bradyfu/awesome-multimodal-large-language-models

近年来,大型语言模型Large Language Models(LLM)的研究取得了显著的进展(例如GPT-3,LLaMa,ChatGPT,GPT-4),这些模型在各项自然语言处理(NLP)任务上展现了出色的性能。

通过在海量数据上预训练,LLM获得了丰富的知识以及强大的推理能力。只需要输入一些用户指令,这些模型就可以解析指令、进行推理并给出符合用户预期的回答。

LLM具有的一些典型能力包括:

· 执行训练时未见过的新任务;· 通过少量样例完成新任务;· 通过推理链条执行复杂的推理任务;· 协调各种模型与工具完成复合任务。

这些能力背后蕴含着众多关键思想和技术,包括指令微调(Instruction Tuning),上下文学习(In-Context Learning)和思维链(Chain of Thought)等。

多模态大型语言模型

尽管大语言模型在NLP领域取得了长足的发展,相应的模型与技术在多模态领域则较少探索,且传统视觉-语言模型仍存在着泛化性不足以及缺乏推理能力等局限。

为此,近期众多学者将注意力转向一个新兴的方向:多模态大型语言模型Multimodal Large Language Models(MLLM)。

其主要思想是以LLM作为「大脑」对输入的多模态信息进行整合、推理、分析和决断,从而完成人类交付的任务。

「多模态LLM」最新介绍!数据、论文集直接打包带走

从发展通用人工智能的视角看,相比于LLM,MLLM又向前迈进了一步,且具有以下优点:

· 更符合人类认知世界的习惯。人类具有多种感官,接受多种模态信息,这些信息常常是互补的、协同作用的。因此,使用多模态信息一般可以更好地认知与完成复杂任务;

· 更加强大与用户友好(User-Friendly)的接口。通过支持多模态输入,用户可以通过更加灵活的方式传达信息;

· 更广泛的任务支持。LLM通常只能完成NLP相关任务,而MLLM通过接入多模态可以完成更多任务。

从系统设计的角度来看,MLLM可以分为两类:

· LLM作为推理器的、支持多模态输入的认知推理系统;

· LLM作为规划器/调度器/决策器的多工具协作系统。

前者一般通过可训练的多模态转换接口将多模态信息转化为LLM可以直接接收、处理的形态,使LLM可以基于这些多模态信息以及用户指令进行认知与推理。

后者通常以LLM作为规划器/调度器/决策器[1],将用户交付的复杂任务分解为更简单的子任务,并派发给合适的模型/工具,最后整合结果并输出。

我们采取另一种视角,聚焦于MLLM背后的关键技术与实现方式,对相关工作进行了调研与总结,将MLLM划分为以下几类:

· 多模态指令微调(Multimodal Instruction Tuning)

· 多模态上下文学习(Multimodal In-Context Learning)

· 多模态思维链(Multimodal Chain-of-Thought)

· LLM辅助的视觉推理(LLM-Aided Visual Reasoning)

下面我们将对这几类工作进行简要介绍。

多模态指令微调(Multimodal Instruction Tuning)

多模态指令微调的基本做法是使用统一的模板将各类数据统一起来,并以指令的形式描述任务需求,形成多模态指令数据,再使用这种数据去微调MLLM。

由于训练与测试时的指令形式具有一致性,LLM可以凭借其强大的语义理解和推理能力,更灵活地泛化到其他任务,获得强大的零样本学习能力。

多模态指令数据的基本形式可以概括为(指令,多模态输入,回答)三元组。

一种直观的获得这种数据的方式是改造基准(Benchmark)数据集,我们以图像描述(Image Captioning)为例,如下图1所示:

「多模态LLM」最新介绍!数据、论文集直接打包带走

图1. 多模态指令数据示例

原本的Caption数据样本包括一张图片和一段文字描述(Ground Truth),这种数据-GT的配对数据自然构成了指令数据的多模态输入和回答部分。

指令部分则为相应任务的描述,一般由人工编写或者调用GPT生成。

在进行多模态指令微调时,MLLM转化多模态输入并送入LLM中,LLM基于多模态信息与指令文本预测答案。

多模态上下文学习(Multimodal In-Context Learning)

多模态上下文学习的核心思想是从类比中学习。比如,我们在学习时一般接触到的形式如下:

「多模态LLM」最新介绍!数据、论文集直接打包带走

通过学习例题,我们在遇到新的问题时,可以通过类比例题学习基本思想与方法,从而解决新的问题。

此外,例题还能规范我们的回答格式,更有利于得到正确的、符合预期要求的答案。

如下图2所示,通过样例让模型预测3×7的计算结果。

「多模态LLM」最新介绍!数据、论文集直接打包带走

图2. 多模态上下文数据示例,通过样例让模型预测3×7的计算结果

多模态思维链(Multimodal Chain-of-Thought)

思维链即一系列中间推理步骤[2]。多模态思维链的基本思想是使模型学会逐步输出中间步骤,最后推理出最终答案,如下图3所示:

「多模态LLM」最新介绍!数据、论文集直接打包带走

图3. 多模态思维链数据示例

相比于直接输出答案的方式,思维链:

· 更符合人类推理习惯:基于之前的推理步骤与结果,逐步导向最终答案;

· 适用于复杂的推理任务,将复杂问题分步求解,提高回答的准确性。

LLM辅助的视觉推理(LLM-Aided Visual Reasoning)

利用LLM作为决策与推理机构,调用各种多模态模型和工具并整合输出,得到最后的答案。根据完成任务的方式一般可分为单轮模型与多轮模型。

单轮模型的基本思想是由LLM作为规划器、调度器和决策器协调各个模型/工具完成任务,一般需要完成以下职能[1]:

· 规划器:将复杂任务分解为可解的子任务;

· 调度器:将子任务派发给合适的模型/工具;

· 决策器:管理子任务执行顺序,整合子任务结果得到最终答案。

多轮模型基于迭代的思想,不断积累视觉认知,直到足够自信得到最终答案。在这个过程中,LLM需要整合之前的步骤 (提出的问题与已获得的视觉认知信息),判断是否可以输出最终答案[3]。

相关论文详见:https://github.com/BradyFU/Awesome-Multimodal-Large-Language-Models

「多模态LLM」最新介绍!数据、论文集直接打包带走

「多模态LLM」最新介绍!数据、论文集直接打包带走

「多模态LLM」最新介绍!数据、论文集直接打包带走

「多模态LLM」最新介绍!数据、论文集直接打包带走

「多模态LLM」最新介绍!数据、论文集直接打包带走

「多模态LLM」最新介绍!数据、论文集直接打包带走

「多模态LLM」最新介绍!数据、论文集直接打包带走

「多模态LLM」最新介绍!数据、论文集直接打包带走

豆包MarsCode 豆包MarsCode

豆包旗下AI编程助手,支持DeepSeek最新模型

豆包MarsCode 120 查看详情 豆包MarsCode

以上就是「多模态LLM」最新介绍!数据、论文集直接打包带走的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/526313.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月9日 08:15:54
下一篇 2025年11月9日 08:16:47

相关推荐

  • ai做html怎么运行_AI生成html运行步骤【教程】

    答案是使用AI生成HTML代码后,将其保存为.html文件并用浏览器打开即可运行。具体步骤为:1. 在AI工具中输入需求生成HTML代码;2. 将代码复制到文本编辑器并另存为index.html,编码选UTF-8,类型选“所有文件”;3. 双击该文件用浏览器打开,若无法正常显示需检查文件后缀、编码及…

    2025年12月23日
    000
  • html的盒模型详解

    这次给大家带来html的盒模型详解,使用html盒模型的注意事项有哪些,下面就是实战案例,一起来看一下。 1.1. 盒的内容区的尺寸— content width和content height —取决于几个因素: –生成该盒的元素是否设置了’width’或&#82…

    好文分享 2025年12月21日
    000
  • p5.js中类方法声明的语法解析与常见错误修复指南

    本文旨在解决从java processing迁移至p5.js时常见的语法错误,特别是类内部方法声明不当引发的问题。我们将深入探讨javascript中全局函数与类方法声明的语法差异,提供清晰的示例代码,并指导如何识别和修复“unexpected token”及“declaration or stat…

    2025年12月21日
    000
  • p5.js中类方法声明的语法修正与迁移指南

    本文深入探讨了将Processing/Java代码转换为p5.js时,因JavaScript类方法声明语法差异而引发的常见错误。我们将重点解析`Unexpected token`和`Declaration or statement expected`等错误信息,明确全局函数与类成员方法在JavaSc…

    2025年12月21日
    000
  • TypeScript泛型函数中复杂对象结构类型推断的精确控制

    本文探讨了在typescript中处理复杂嵌套对象结构时,如何为泛型函数实现精确的类型推断。通过一个具体的汽车品牌和车型数据场景,我们分析了`object.values`等操作可能导致类型信息丢失的问题。核心解决方案是利用映射类型(mapped types)重构数据结构,以显式地建立泛型键与对应值之…

    2025年12月21日
    000
  • 解决 ChatGPT 扩展选择器失效问题:一个实战教程

    本文旨在帮助开发者解决 ChatGPT 网页更新导致扩展选择器失效的问题。通过分析问题原因,提供利用开发者工具查找新选择器的方法,并展示了使用 getElementsByClassName() 替代 querySelector() 的解决方案,以确保扩展功能在 ChatGPT 最新版本中正常运行。 …

    2025年12月20日
    000
  • ChatGPT 扩展失效:定位新版选择器并修复

    本文旨在帮助开发者解决因 ChatGPT 网页更新导致扩展失效的问题。通过分析失效原因,提供利用开发者工具定位新版选择器的实用方法,并给出示例代码,帮助开发者快速修复扩展,恢复其功能。 当 ChatGPT 网页更新时,依赖于特定 CSS 选择器的扩展程序可能会失效。这通常是因为网页结构的改变导致原有…

    2025年12月20日
    000
  • ChatGPT 扩展失效?定位新版选择器的实用指南

    本文旨在帮助开发者解决因 ChatGPT 网页更新导致扩展失效的问题。重点讲解如何定位新版 ChatGPT 网页中的目标元素,并提供使用 getElementsByClassName() 方法的示例代码,帮助开发者快速修复和更新扩展,使其重新适配新版 ChatGPT 网页。 ChatGPT 网页频繁…

    2025年12月20日
    000
  • ChatGPT 扩展插件选择器失效问题排查与解决方案

    本文旨在帮助开发者解决 ChatGPT 扩展插件因页面更新导致选择器失效的问题。通过分析页面结构变化,提供使用 getElementsByClassName() 方法替代 querySelector() 的解决方案,并提供在不同浏览器环境下调整选择器的思路,确保扩展插件的稳定运行。 由于 ChatG…

    2025年12月20日
    000
  • 应对ChatGPT界面更新:浏览器扩展选择器失效的定位与修复

    本文针对ChatGPT界面更新导致浏览器扩展选择器失效的问题,提供了一套定位与修复策略。核心在于利用浏览器开发者工具识别新的DOM结构和类名,并建议从不稳定的querySelector转向更适合动态UI的getElementsByClassName等方法,以确保扩展的稳定运行。 在开发浏览器扩展时,…

    2025年12月20日
    000
  • LINE Bot 多消息类型回复:文本与贴图的组合发送指南

    本文旨在解决 LINE Bot 开发中,通过 Messaging API 组合发送文本消息和贴图时遇到的 400 Bad Request 错误。核心问题在于对同一 replyToken 进行多次 replyMessage 调用,而正确的做法是利用 API 支持在单次调用中发送一个消息数组,从而实现文…

    2025年12月20日
    000
  • 使用LINE Bot与OpenAI API发送文本和贴图的完整教程

    本文详细介绍了如何在LINE Bot中集成OpenAI API生成文本回复,并在此基础上发送LINE贴图。核心挑战在于LINE Messaging API的replyToken通常只能使用一次,导致连续发送文本和贴图时出现400错误。解决方案是利用API支持一次性发送多条消息的特性,将文本和贴图消息…

    2025年12月20日
    000
  • 优化OpenAI API:解决GPT应用中意外代码生成问题

    本教程旨在解决使用OpenAI GPT-3.5 API(如text-davinci-003)时,模型意外生成无关代码的问题。文章强调了选择更适合代码生成任务的模型(如gpt-3.5-turbo或gpt-4)的重要性,并深入探讨了通过优化提示词(Prompt Engineering)来提升模型响应质量…

    2025年12月20日
    200
  • 解决 Next.js API 路由无法访问 Azure 云函数的问题

    第一段引用上面的摘要: 本文旨在帮助开发者解决 Next.js API 路由无法访问 Microsoft Azure 云函数的问题。主要原因通常是由于 process.env.VERCEL_URL 环境变量配置不正确,导致 Next.js 应用尝试通过 IPv6 的本地回环地址 ::1 连接云函数,…

    2025年12月20日
    000
  • 在Next.js API路由中高效传输OpenAI流式响应到客户端

    本文详细介绍了如何在Next.js应用的API路由中,以流式传输的方式将OpenAI的响应发送给客户端,从而实现类似ChatGPT的实时交互体验。针对旧版Node.js环境限制和API密钥暴露等常见问题,我们提出了一种基于Next.js App Router和Web标准API(如ReadableSt…

    2025年12月20日
    000
  • Node.js ES Modules中openai导入异常及误导性错误排查

    本文探讨了在Node.js ES Modules (ESM) 环境下使用openai npm包时,遇到的一个看似是SyntaxError的模块导入问题。文章详细分析了问题现象,揭示了其背后实则是一个与导入语句无关的运行时逻辑错误,并解释了为何这类深层问题可能导致误导性的编译或模块加载错误。通过代码示…

    2025年12月20日
    000
  • 深入解析Node.js中误导性模块导入错误的排查与解决方案

    本文深入探讨了Node.js项目中一个看似是模块导入错误(SyntaxError: The requested module ‘openai’ does not provide an export named ‘Configuration’),但实际根…

    2025年12月20日
    000
  • 探索chatgpt开发的挑战和局限性

    ChatGPT:机遇与挑战并存 OpenAI研发的ChatGPT彻底改变了人机交互方式,其应用范围涵盖客户支持、内容创作等诸多领域。然而,ChatGPT的发展并非一帆风顺,仍面临诸多挑战与局限。本文将深入探讨这些问题,并提出相应的应对策略。 1. 训练数据限制 ChatGPT的核心局限在于其依赖于预…

    2025年12月19日
    000
  • DeepSeek和Chatgpt可以&#t正确:如何使用元数据更新Cloudflare KV对

    使用cloudflare kv更新键值对及其元数据 本文提供使用Cloudflare KV API更新键值对及其元数据的代码示例。 虽然大型语言模型可以生成代码,但仔细阅读官方文档仍然至关重要。 以下代码片段演示了如何使用fetch API 更新Cloudflare KV中的键值对,同时更新其元数据…

    2025年12月19日
    000
  • RSS如何实现动态内容过滤?

    要实现rss动态内容过滤,核心在于引入“智能代理”对原始feed进行二次处理。具体路径包括:1.使用内置过滤功能的rss阅读器,如feedly、inoreader等,适合简单筛选;2.借助ifttt或zapier等自动化平台作为中间件,支持条件判断和内容分发;3.自建解析器,利用python、nod…

    2025年12月17日
    000

发表回复

登录后才能评论
关注微信