Yann LeCun称巨型模型不能实现智力接近人类的目标

「语言只承载了所有人类知识的一小部分;大部分人类知识、所有动物知识都是非语言的;因此,大语言模型是无法接近人类水平智能的,」这是图灵奖得主 Yann LeCun 对于人工智能前景的最新思考。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

Yann LeCun:大模型方向错了,智力无法接近人类

昨天,他与纽约大学博士后 Jacob Browning 合著的新文章发表在《NOEMA》上,引发了人们的讨论。

在文章中,作者讨论了当前流行的大规模语言模型,认为其存在明显的极限。未来 AI 领域努力的方向或许应该是让机器优先理解真实世界其他层面意义上的知识。

让我们看看他们是怎么说的。​

前段时间,前谷歌 AI 伦理研究员 Blake Lemoine 声称 AI 聊天机器人 LaMDA 像人一样具有意识,这在领域内掀起了轩然大波。

LaMDA 实际上是一种大型语言模型 (LLM),旨在预测任何给定文本下一个可能的词。由于许多对话在某种程度上是可预测的,因此这些系统可以推断出如何使对话保持高效。LaMDA 在这类任务上做得非常出色,以至于 Blake Lemoine 开始怀疑 AI 是否存在「意识」。

领域内的研究者对于这件事持有不同的看法:一些人对机器有意识的想法嗤之以鼻;一些人认为 LaMDA 模型或许没有,但下一个模型可能有意识。还有一些人指出机器「欺骗」人类这件事并不难。

人们反应的多样性凸显了一个更深层次的问题:随着 LLM 变得越来越普遍和强大,我们对这些模型的观点似乎越来越难达成一致。多年来,这些系统已经超越了许多「常识」语言推理基准,但这些系统在测试时似乎很少有承诺的常识,甚至容易出现胡说八道、提出不合逻辑、危险的建议。这就引出了一个令人不安的问题:这些系统怎么会如此智能,能力却又如此有限?​

实际上,最根本的问题并不在于人工智能,而是在于语言的有限性。一旦我们放弃了关于意识和语言之间联系的假设,这些系统就注定只能有关于世界的肤浅理解,永远无法接近人类的「全面思维」。简而言之,尽管这些模型已经是地球上最令人印象深刻的人工智能系统,但这些 AI 系统永远不会像我们人类一样智能。

在 19 世纪和 20 世纪的大部分时间里,哲学和科学领域的一个主要主题是:知识仅仅是语言。这意味着理解一件事只需理解一句话的内容,并将这句话与其他句子关联起来。按照这种逻辑,理想的语言形式将是由严格的推理规则连接的任意符号组成的逻辑数学的形式。

哲学家 Wittgenstein 说过:「真命题的总和是自然科学。」这一立场是在 20 世纪确立的,后来引起了很多争议。

一些受过高等教育的知识分子仍然持有观点:「我们所能知道的一切都可以包含在百科全书中,因此只要阅读百科全书的所有内容就能让我们对所有事物都有全面的了解。」这种观点还激发了 Symbolic AI 的许多早期工作,其中将符号处理作为默认范式。对于这些研究人员来说,人工智能知识由大量真实句子的数据库组成,这些真实的句子通过手工逻辑相互连接,人工智能系统的目标就是在正确的时间输出正确的句子,即以适当的方式处理符号。

这个概念是图灵测试的基础:如果一台机器「说」出了它应该说的一切,这意味着它知道它在说什么,因为知道正确的句子以及何时使用它们会用到上述人工智能知识。

但这种观点遭到了严厉的批评,反驳的观点认为:机器可以谈论事情,并不意味着它理解正在谈论的内容。这是因为语言只是一种高度具体且非常有限的知识表征。所有语言,无论是编程语言、符号逻辑语言还是日常口语——都开启了特定类型的表征模式;它擅长以极高的抽象水平表达离散的对象和属性以及它们之间的关系。

然而,所有的表征模式都涉及对事物信息的压缩,但压缩中留下和遗漏的内容各不相同。语言的表征模式可能会遗漏一些具体的信息作,例如描述不规则的形状、物体的运动、复杂机制的功能或绘画上细致入微的笔触等等。而一些非语言的表征方案可以以一种易于理解的方式表达这些信息,包括标志性知识、分布式知识等。

语言的限制

要了解语言表征模式的缺陷,首先要认识到语言传递的信息有多少。事实上,语言是一种传输信息的带宽非常低的方法,特别是在没有上下文的情况下,孤立的单词或句子传达的信息很少。此外,由于同音词和代词的数量众多,许多句子的含义都非常模棱两可。正如乔姆斯基等研究者所指出的:语言并不是清晰明确的交流工具

但是人类不需要完美的交流工具,因为我们共享对非语言的理解体系。我们对句子的理解通常取决于对句子所在语境的深入理解,从而使我们能够推断出语言表达的含义。我们经常直接谈论眼前的事情,比如足球比赛。或者在某种情况下面向社会角色进行交流,比如从服务员那里点菜。

阅读文本段落也是如此——这种任务破坏了人工智能获得常识的渠道,却是一种向儿童教授无上下文阅读理解技能的流行方法。这种方法侧重于使用通用阅读理解策略来理解文本——但研究表明,儿童对主题的背景知识量实际上是理解的关键因素。理解一个句子或段落正确与否取决于对主题内容的基本掌握。​

「很明显,这些系统深陷于肤浅的理解,永远不会接近人类所有的全面思维。」

单词和句子固有的上下文性质是 LLM 工作的核心。神经网络通常将知识表示为专有技术,即掌握对上下文高度敏感的模式,并总结规律(具体和抽象)的熟练能力,这些规律对于以精细方式处理输入是必要的,但只适合有限的任务。

在 LLM 中,这有关系统在现有文本的多个层次上识别模式,既看到单词在段落中的联系,也要看到句子是如何在构成它们的大段落中是如何连接在一起的。结果是模型对语言的掌握不可避免地是上下文相关的。每个单词的理解不是根据其字典含义,而是根据它在各种句子中的作用来理解。由于许多单词——比如「化油器」、「菜单」、「调试」或「电子」——几乎只用于特定领域,即使是带有其中一个词的孤立句子也会在预测上带出上下文。

简而言之,LLM 训练后可以了解每个句子的背景知识,查看周围的单词和句子来拼凑正在发生的事情。这使得他们可以无限可能地使用不同的句子或短语作为输入,并提出合理(尽管很难没有缺陷)的方式来继续对话或填写文章的其余部分。一个根据人类书写的段落训练,用作日常交流的系统,应该拥有能够高质量对话所必需的一般理解能力。​

浅薄的理解

有些人不愿在这种情况下使用「理解」一词或称 LLM 为「智能」,目前还不能说语义理解说服了任何人。批评者指责这些系统在进行某种模仿——这是正确的。这是因为 LLM 对语言的理解虽然令人印象深刻,但却很肤浅。这种肤浅的认识似曾相识:教室里到处都是「说行话」的学生,他们不知道自己在说什么——实际上是在模仿他们的教授或他们正在阅读的课文。这只是生活的一部分。我们常常不清楚我们知道些什么,尤其是在从语言中获得的知识方面。

察言观数AskTable 察言观数AskTable

企业级AI数据表格智能体平台

察言观数AskTable 33 查看详情 察言观数AskTable

LLM 对所有事物都获得了这种肤浅的理解。像 GPT-3 这样的系统是通过屏蔽句子一部分,或预测段落中下一个单词来进行训练的,这样迫使机器猜测最有可能填补空白的单词,并纠正错误的猜测。该系统最终会熟练地猜测最可能的单词,从而使自己成为有效的预测系统。

这带来了一些真正的理解:对于任何问题或谜题,通常只有少数正确答案,但错误答案无限多。这迫使系统学习特定于语言的技能,例如解释笑话、解决单词问题或解决逻辑难题,以便定期预测这些类型问题的正确答案。

这些技能和相关知识让机器能够解释复杂事物的工作原理、简化困难的概念、改写和复述故事,并获得许多其他与语言相关的能力。正如 Symbolic AI 所假设的那样——机器不是由逻辑规则链接的庞大的句子数据库,而是将知识表示为上下文高亮内容,用于在给定前一行的情况下提出合理的后一个句子。

「放弃所有知识都是语言的观点,让我们意识到我们的知识中有多少是非语言的。」​

但是用语言解释一个概念的能力不同于实际使用它的能力。系统可以解释如何执行长除法,同时也可以实际上自己不会做,或者解释哪些是与之抵触的,却又能愉快地持续进行解释。语境知识以一种形式嵌入——即口述语言知识的能力——但不嵌入另一种形式——作为如何做事的技巧,比如善解人意或敏感地处理困难问题。

后一种专业知识对语言使用者来说是必不可少的,但这并不能使他们掌握语言技能——语言成分并不是主要的。这适用于许多概念,甚至是从讲座和书籍中学到的概念:虽然科学课确实有讲授的成分,但学生的得分主要基于他们在实验室的工作。特别是在人文学科之外,能够谈论某事通常不如让事情正常工作所需的基本技能有用或重要。

一旦我们深入探究,就能轻易看出这些系统实际上是多么的浅薄:它们的注意力范围和记忆大约相当于一个段落。如果我们进行对话,很容易忽略这一点,因为我们倾向于只关注最后一两条评论,应付下一个回复。

但是,更复杂的对话的诀窍——积极倾听、回忆和重新审视之前的评论、坚持一个主题以提出一个特定的观点,同时避免干扰等等——都需要比机器拥有的更多的注意力和记忆力。

这进一步减少了它们可以理解的类型:很容易通过每隔几分钟就换话题、更改语言或阴阳怪气来欺骗他们。如果退太多步,系统将重新从头开始,把你的新观点与旧评论混为一谈,与你切换聊天语言或相信你所说的任何内容。发展一个连贯的世界观所必需的理解远远超出了机器的能力范围。​

语言之外

放弃所有知识是语言的观点,这让我们意识到我们的知识中有相当部分是非语言的。虽然书籍包含许多我们可以解压和使用的信息,但许多其他物品也是如此:宜家的说明书甚至懒得在图示旁边写说明文字,AI 研究人员通常会先看论文中的图表,掌握网络架构,然后再浏览文本,旅行者可以按照地图上的红线或绿线导航到想去的地方。

这其中的知识超越了简单的图标、图表和地图。人类直接从探索世界中学到了很多东西,向我们展示了物质和人能与不能表现的东西。物质的结构和人类环境直观地传达了很多信息:门把手在手的高度,锤子的把手更软等等。动物和人类的非语言心理模拟对于规划场景很常见且有用,可用于制作或逆向工程人工制品。

同样,通过模仿社会习俗和仪式,我们可以将各种技能传授给下一代,从准备食物和药物到在紧张时期平静下来。我们的许多文化知识是标志性的,或者说是以从熟练的从业者传授给学徒精确动作的形式。这些微妙的信息模式很难用语言表达和传达,但其他人仍然可以理解。这也是神经网络擅长拾取和完善的上下文相关信息的精确类型。

「一个仅受过语言训练的系统永远不会接近人类的智能,即使从现在开始一直训练到宇宙的热寂。」​

语言很重要,因为它可以以小格式传达大量信息,特别是在印刷术和互联网出现之后,它能做到内容的复制和广泛分发。但是用语言压缩信息并不是没有成本的:解码一个密集的段落需要付出很多努力。人文课可能需要大量课外阅读,大部分课堂时间需要花费在阅读困难的段落上。建立深入的理解既费时又费力,但提供了信息。

这就解释了为什么受过语言训练的机器可以知道这么多,却又什么也不懂——它是在通过一个微小的瓶颈获取一小部分人类知识。但人类知识的那一小部分可以是关于任何事物的,无论是爱情还是天体物理学。因此它有点像镜子:它给人一种深度的错觉,几乎可以反射任何东西,但它只有一厘米厚。如果我们试图探索它的深处,我们就会撞墙。

做正确的事

这并不会使机器变得更傻,但也表明它们的智能程度有内在的限制。一个仅接受语言训练的系统永远不会接近人类的智能,即使从现在开始一直训练到宇宙的热寂。这是一个错误的知识体系构建方式。但如果我们只停留在表面上,机器无疑似乎会接近人类。而且在许多情况下,表面就足够了。我们中很少有人真正将图灵测试应用到其他人身上,积极地质疑他们的理解深度,并强迫他们做多位数乘法问题。大多数谈话都是闲聊。

但是,我们不应将 LLM 所拥有的肤浅理解与人类通过观察世界的精彩、探索世界、在其中实践以及与文化和其他人互动所获得的深刻理解混为一谈。语言可能是扩展我们对世界理解的有用组成部分,但语言并不会穷尽智力,从许多物种行为上我们都能理解这样的观点,例如鸦科动物、章鱼和灵长类动物。​

相反,深刻的非语言理解是语言有意义的必要条件。正是因为人类对世界有深刻的理解,所以我们可以很快理解别人在说什么。这种更广泛、对上下文敏感的学习和知识是一种更基础、更古老的知识,它是实体生物感知能力出现的基础,让生存和繁荣成为可能。

这也是人工智能研究者在寻找人工智能中的常识时关注的更重要的任务。LLM 没有稳定的身体或世界可以感知——所以它们的知识更多是以单词开始和结束,这种常识总是肤浅的。我们的目标是让 AI 系统专注于所谈论的世界,而不是单词本身——但 LLM 并没有掌握其中的区别。仅通过语言是无法近似这种深刻理解的,这是错误的方向。

人类处理各种大语言模型的丰富经验清楚地表明,仅从言语中可以获得的东西是如此之少。

以上就是Yann LeCun称巨型模型不能实现智力接近人类的目标的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/833931.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月27日 09:22:34
下一篇 2025年11月27日 09:28:44

相关推荐

  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000
  • 使用CSS mask属性指定图片URL时,为什么浏览器无法加载图片?

    css mask属性未能加载图片的解决方法 使用css mask属性指定图片url时,如示例中所示: mask: url(“https://api.iconify.design/mdi:apple-icloud.svg”) center / contain no-repeat; 但是,在网络面板中却…

    2025年12月24日
    000
  • 如何用CSS Paint API为网页元素添加时尚的斑马线边框?

    为元素添加时尚的斑马线边框 在网页设计中,有时我们需要添加时尚的边框来提升元素的视觉效果。其中,斑马线边框是一种既醒目又别致的设计元素。 实现斜向斑马线边框 要实现斜向斑马线间隔圆环,我们可以使用css paint api。该api提供了强大的功能,可以让我们在元素上绘制复杂的图形。 立即学习“前端…

    2025年12月24日
    000
  • 图片如何不撑高父容器?

    如何让图片不撑高父容器? 当父容器包含不同高度的子元素时,父容器的高度通常会被最高元素撑开。如果你希望父容器的高度由文本内容撑开,避免图片对其产生影响,可以通过以下 css 解决方法: 绝对定位元素: .child-image { position: absolute; top: 0; left: …

    2025年12月24日
    000
  • 为什么自定义样式表在 Safari 中访问百度页面时无法生效?

    自定义样式表在 safari 中失效的原因 用户尝试在 safari 偏好设置中添加自定义样式表,代码如下: body { background-image: url(“/users/luxury/desktop/wallhaven-o5762l.png”) !important;} 测试后发现,在…

    2025年12月24日
    000
  • CSS 帮助

    我正在尝试将文本附加到棕色框的左侧。我不能。我不知道代码有什么问题。请帮助我。 css .hero { position: relative; bottom: 80px; display: flex; justify-content: left; align-items: start; color:…

    2025年12月24日 好文分享
    200
  • 前端代码辅助工具:如何选择最可靠的AI工具?

    前端代码辅助工具:可靠性探讨 对于前端工程师来说,在HTML、CSS和JavaScript开发中借助AI工具是司空见惯的事情。然而,并非所有工具都能提供同等的可靠性。 个性化需求 关于哪个AI工具最可靠,这个问题没有一刀切的答案。每个人的使用习惯和项目需求各不相同。以下是一些影响选择的重要因素: 立…

    2025年12月24日
    000
  • 如何用 CSS Paint API 实现倾斜的斑马线间隔圆环?

    实现斑马线边框样式:探究 css paint api 本文将探究如何使用 css paint api 实现倾斜的斑马线间隔圆环。 问题: 给定一个有多个圆圈组成的斑马线图案,如何使用 css 实现倾斜的斑马线间隔圆环? 答案: 立即学习“前端免费学习笔记(深入)”; 使用 css paint api…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信