大模型时代如何捕捉不良内容?欧盟法案要求AI公司确保用户知情权

在过去的 10 年里,大型科技公司在许多技术上变得非常擅长:语言、预测、个性化、存档、文本解析和数据处理。但它们在捕捉、标记和删除有害内容方面仍然十分糟糕。对于在美国传播的选举和疫苗阴谋论,只需回顾过去两年的事件,就能了解它们对现实世界造成的危害。

这种差异引发了一些问题。为什么科技公司在内容审核方面没有改进?他们可以被迫这么做吗?人工智能的新进展会提高我们捕捉不良信息的能力吗?

大多数情况下,当科技公司被美国国会要求对传播仇恨和错误信息做出解释时,它们往往会把自己失败的原因归咎于语言本身的复杂性。高管们表示,在不同语言和背景下理解和防止上下文相关的仇恨言论是一项难度很大的任务。

马克·扎克伯格(Mark Zuckerberg)最喜欢说的一句话是,科技公司不应该承担解决世界上所有政治问题的责任。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

大模型时代如何捕捉不良内容?欧盟法案要求AI公司确保用户知情权 (来源:STEPHANIE ARNETT/MITTR | GETTY IMAGES)

大多数公司目前同时使用技术和人工内容审核员,后者的工作被低估了,这反映在他们微薄的薪酬上。

例如,在 Facebook 上删除的所有内容中,人工智能目前负责了 97%。

然而,斯坦福互联网观测站的研究经理蕾妮·迪雷斯塔(Renee DiResta)说,人工智能并不擅长解释细微差别和背景,所以它不可能完全取代人类内容审查员,即使人类也不总是擅长解释这些事情。

由于自动内容审核系统通常是根据英文数据进行训练的,因此文化背景和语言也会带来挑战,难以有效处理其他语言的内容。

哈尼·法里德教授于加州大学伯克利分校信息学院提供了一个更为明显的解释。据法里德所言,由于内容审核不符合科技公司的经济利益,因此它没有跟上风险的发展。这一切都与贪婪有关。别再假装这不是钱的问题了。”

由于联邦监管的缺失,网络暴力的受害者很难要求平台承担经济责任。

内容审核似乎是科技公司和不良行为者之间一场永无止境的战争。当科技公司推出内容监管规则时,不良行为者通常会使用表情符号或故意拼写错误来避免被检测。然后这些公司试图堵住漏洞,人们再寻找新的漏洞,如此循环往复。

大模型时代如何捕捉不良内容?欧盟法案要求AI公司确保用户知情权

现在,大型语言模型来了……

现在的处境已经很难了。随着生成式人工智能和ChatGPT等大型语言模型的出现,情况可能会更加恶劣。生成式技术也有问题——比如,它倾向于自信地编造一些事情,并把它们作为事实呈现出来——但有一点是明确的:人工智能在语言方面越来越强大了,非常强大。

虽然迪雷斯塔和法里德都很谨慎,但他们认为现在还为时过早去做出对事情如何发展的判断。尽管许多像 GPT-4 和 Bard 这样的大模型都有内置的内容审核过滤器,但它们仍然可能产生有毒的输出,比如仇恨言论或如何制造炸弹的指令。

生成式人工智能可使坏人在更大规模和更快速度上进行虚假信息欺骗活动。考虑到人工智能生成内容的识别和标记方法严重不足,这个情况非常可怕。

百川大模型 百川大模型

百川智能公司推出的一系列大型语言模型产品

百川大模型 62 查看详情 百川大模型

另一方面,最新的大型语言模型在文本解释方面比之前的人工智能系统要表现得更出色。理论上,它们可以用来促进自动内容审核的发展。

科技公司需要投资重新设计大型语言模型,以实现这一特定目标。尽管微软等公司已开始研究此事,但尚未出现引人注目的活动。

法里德表示:“尽管我们已经看到了许多技术进步,但我对内容审核方面的任何改进都持怀疑态度。”

尽管大型语言模型发展迅速,但它们依然面临上下文理解方面的挑战,这可能导致它们无法像人类审核员那样准确地理解帖子和图像之间的微小差别。跨文化的可扩展性和特殊性也带来了问题。“你会针对特定类型的小众市场部署一种模型吗?是按国家划分的吗?是按社区来做的吗?这不是一个放之四海而皆准的问题,”迪雷斯塔说。

大模型时代如何捕捉不良内容?欧盟法案要求AI公司确保用户知情权

基于新技术的新工具

生成式人工智能最终对在线信息领域是有害还是有益,可能在很大程度上取决于科技公司能否拿出好的、被广泛采用的工具来告诉我们内容是否是由人工智能生成的。

迪雷斯塔告诉我说,检测合成介质可能是需要优先考虑的一项技术挑战,因为这很有挑战性。这包括像数字水印这样的方法,它指的是嵌入一段代码,作为一种永久性的标记,表明附加的内容是由人工智能制作的。用于检测人工智能生成或操纵的帖子的自动化工具很有吸引力,因为与水印不同,它们不需要人工智能生成内容的创建者主动标记。换句话说,目前尝试识别机器生成内容的工具的表现还不够出色。

一些公司甚至提出了使用数学来安全地记录信息的加密签名,比如一段内容是如何产生的,但这将依赖于像水印这样的自愿披露技术。

欧盟上周刚刚提出的最新版《人工智能法案》(AI Act)要求,使用生成式人工智能的公司要在内容确实是由机器生成时通知用户。在未来几个月,我们可能会听到更多有关新兴工具的消息,因为对人工智能生成内容透明度的需求正在增加。

支持:Ren

原文:

https://www.technologyreview.com/2023/05/15/1073019/catching-bad-content-in-the-age-of-ai/

以上就是大模型时代如何捕捉不良内容?欧盟法案要求AI公司确保用户知情权的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/540402.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月9日 15:05:45
下一篇 2025年11月9日 15:06:37

相关推荐

  • ai做html怎么运行_AI生成html运行步骤【教程】

    答案是使用AI生成HTML代码后,将其保存为.html文件并用浏览器打开即可运行。具体步骤为:1. 在AI工具中输入需求生成HTML代码;2. 将代码复制到文本编辑器并另存为index.html,编码选UTF-8,类型选“所有文件”;3. 双击该文件用浏览器打开,若无法正常显示需检查文件后缀、编码及…

    2025年12月23日
    000
  • javascript的机器学习如何入门_有哪些可用的JavaScript库

    JavaScript适合浏览器端轻量推理与教学,不宜训练大模型;推荐从线性回归、KNN等简单任务入手,优先掌握张量操作、模型流程及Chrome调试技巧。 JavaScript 做机器学习确实可行,但得明确一点:它不适合训练大型模型,更适合在浏览器端做轻量推理、数据预处理、教学演示或与 Web 应用集…

    2025年12月21日
    000
  • p5.js中类方法声明的语法解析与常见错误修复指南

    本文旨在解决从java processing迁移至p5.js时常见的语法错误,特别是类内部方法声明不当引发的问题。我们将深入探讨javascript中全局函数与类方法声明的语法差异,提供清晰的示例代码,并指导如何识别和修复“unexpected token”及“declaration or stat…

    2025年12月21日
    000
  • p5.js中类方法声明的语法修正与迁移指南

    本文深入探讨了将Processing/Java代码转换为p5.js时,因JavaScript类方法声明语法差异而引发的常见错误。我们将重点解析`Unexpected token`和`Declaration or statement expected`等错误信息,明确全局函数与类成员方法在JavaSc…

    2025年12月21日
    000
  • TypeScript泛型函数中复杂对象结构类型推断的精确控制

    本文探讨了在typescript中处理复杂嵌套对象结构时,如何为泛型函数实现精确的类型推断。通过一个具体的汽车品牌和车型数据场景,我们分析了`object.values`等操作可能导致类型信息丢失的问题。核心解决方案是利用映射类型(mapped types)重构数据结构,以显式地建立泛型键与对应值之…

    2025年12月21日
    000
  • 解决 ChatGPT 扩展选择器失效问题:一个实战教程

    本文旨在帮助开发者解决 ChatGPT 网页更新导致扩展选择器失效的问题。通过分析问题原因,提供利用开发者工具查找新选择器的方法,并展示了使用 getElementsByClassName() 替代 querySelector() 的解决方案,以确保扩展功能在 ChatGPT 最新版本中正常运行。 …

    2025年12月20日
    000
  • ChatGPT 扩展失效:定位新版选择器并修复

    本文旨在帮助开发者解决因 ChatGPT 网页更新导致扩展失效的问题。通过分析失效原因,提供利用开发者工具定位新版选择器的实用方法,并给出示例代码,帮助开发者快速修复扩展,恢复其功能。 当 ChatGPT 网页更新时,依赖于特定 CSS 选择器的扩展程序可能会失效。这通常是因为网页结构的改变导致原有…

    2025年12月20日
    000
  • ChatGPT 扩展失效?定位新版选择器的实用指南

    本文旨在帮助开发者解决因 ChatGPT 网页更新导致扩展失效的问题。重点讲解如何定位新版 ChatGPT 网页中的目标元素,并提供使用 getElementsByClassName() 方法的示例代码,帮助开发者快速修复和更新扩展,使其重新适配新版 ChatGPT 网页。 ChatGPT 网页频繁…

    2025年12月20日
    000
  • ChatGPT 扩展插件选择器失效问题排查与解决方案

    本文旨在帮助开发者解决 ChatGPT 扩展插件因页面更新导致选择器失效的问题。通过分析页面结构变化,提供使用 getElementsByClassName() 方法替代 querySelector() 的解决方案,并提供在不同浏览器环境下调整选择器的思路,确保扩展插件的稳定运行。 由于 ChatG…

    2025年12月20日
    000
  • 应对ChatGPT界面更新:浏览器扩展选择器失效的定位与修复

    本文针对ChatGPT界面更新导致浏览器扩展选择器失效的问题,提供了一套定位与修复策略。核心在于利用浏览器开发者工具识别新的DOM结构和类名,并建议从不稳定的querySelector转向更适合动态UI的getElementsByClassName等方法,以确保扩展的稳定运行。 在开发浏览器扩展时,…

    2025年12月20日
    000
  • 如何构建一个支持AI辅助代码生成的开发工具?

    答案是构建AI辅助开发工具需聚焦开发者真实痛点,通过代码上下文感知引擎理解语义,结合本地与云端推理平衡速度与质量,强化安全隐私保护,并深度集成主流IDE实现反馈闭环,让AI成为响应快、理解准、可信赖的编程搭档。 构建一个支持AI辅助代码生成的开发工具,核心在于将AI能力无缝集成到开发者的工作流中,提…

    2025年12月20日
    000
  • LINE Bot 多消息类型回复:文本与贴图的组合发送指南

    本文旨在解决 LINE Bot 开发中,通过 Messaging API 组合发送文本消息和贴图时遇到的 400 Bad Request 错误。核心问题在于对同一 replyToken 进行多次 replyMessage 调用,而正确的做法是利用 API 支持在单次调用中发送一个消息数组,从而实现文…

    2025年12月20日
    000
  • JavaScript中的Web Assembly(WASM)带来了哪些性能突破?

    WASM通过接近原生的执行速度、更小的二进制体积和跨平台能力,显著提升Web性能;它与JavaScript互补,使浏览器能运行AutoCAD、Figma等重型应用,并支持4K视频处理、大模型训练等复杂任务,推动Web向桌面级体验演进。 WebAssembly(WASM)为JavaScript生态带来…

    2025年12月20日
    000
  • 使用LINE Bot与OpenAI API发送文本和贴图的完整教程

    本文详细介绍了如何在LINE Bot中集成OpenAI API生成文本回复,并在此基础上发送LINE贴图。核心挑战在于LINE Messaging API的replyToken通常只能使用一次,导致连续发送文本和贴图时出现400错误。解决方案是利用API支持一次性发送多条消息的特性,将文本和贴图消息…

    2025年12月20日
    000
  • 优化OpenAI API:解决GPT应用中意外代码生成问题

    本教程旨在解决使用OpenAI GPT-3.5 API(如text-davinci-003)时,模型意外生成无关代码的问题。文章强调了选择更适合代码生成任务的模型(如gpt-3.5-turbo或gpt-4)的重要性,并深入探讨了通过优化提示词(Prompt Engineering)来提升模型响应质量…

    2025年12月20日
    200
  • 解决 Next.js API 路由无法访问 Azure 云函数的问题

    第一段引用上面的摘要: 本文旨在帮助开发者解决 Next.js API 路由无法访问 Microsoft Azure 云函数的问题。主要原因通常是由于 process.env.VERCEL_URL 环境变量配置不正确,导致 Next.js 应用尝试通过 IPv6 的本地回环地址 ::1 连接云函数,…

    2025年12月20日
    000
  • 在Next.js API路由中高效传输OpenAI流式响应到客户端

    本文详细介绍了如何在Next.js应用的API路由中,以流式传输的方式将OpenAI的响应发送给客户端,从而实现类似ChatGPT的实时交互体验。针对旧版Node.js环境限制和API密钥暴露等常见问题,我们提出了一种基于Next.js App Router和Web标准API(如ReadableSt…

    2025年12月20日
    000
  • Node.js ES Modules中openai导入异常及误导性错误排查

    本文探讨了在Node.js ES Modules (ESM) 环境下使用openai npm包时,遇到的一个看似是SyntaxError的模块导入问题。文章详细分析了问题现象,揭示了其背后实则是一个与导入语句无关的运行时逻辑错误,并解释了为何这类深层问题可能导致误导性的编译或模块加载错误。通过代码示…

    2025年12月20日
    000
  • 深入解析Node.js中误导性模块导入错误的排查与解决方案

    本文深入探讨了Node.js项目中一个看似是模块导入错误(SyntaxError: The requested module ‘openai’ does not provide an export named ‘Configuration’),但实际根…

    2025年12月20日
    000
  • 探索chatgpt开发的挑战和局限性

    ChatGPT:机遇与挑战并存 OpenAI研发的ChatGPT彻底改变了人机交互方式,其应用范围涵盖客户支持、内容创作等诸多领域。然而,ChatGPT的发展并非一帆风顺,仍面临诸多挑战与局限。本文将深入探讨这些问题,并提出相应的应对策略。 1. 训练数据限制 ChatGPT的核心局限在于其依赖于预…

    2025年12月19日
    000

发表回复

登录后才能评论
关注微信