应用威胁检测技术:保护网络安全的关键,风险也需考虑

事件响应分类和软件漏洞发现是大型语言模型成功的两个领域,尽管误报很常见。

ChatGPT 是一个开创性的聊天机器人,由基于神经网络的语言模型 text-davinci-003 提供支持,并在来自互联网的大型文本数据集上进行训练。它能够生成各种样式和格式的类似人类的文本。ChatGPT 可以针对特定任务进行微调,例如回答问题、总结文本,甚至解决与网络安全相关的问题,例如,生成事件报告或解释反编译代码。安全研究人员和人工智能黑客都对ChatGPT产生了兴趣,尝试探索 LLM 的弱点,而其他研究人员以及网络犯罪分子则试图将LLM引诱到黑暗面,将其设置为产生力工具,用于生成更好的网络钓鱼电子邮件或生成恶意软件。已经有一些案例表明不法分子已经尝试利用ChatGPT生成恶意对象,例如,网络钓鱼电子邮件,甚至多态恶意软件。

安全分析师的许多实验都在表明,流行的大型语言模型(LLM)ChatGPT 可能有助于帮助网络安全防御者分类潜在的安全事件并发现代码中的安全漏洞,即使人工智能(AI)模型没有专门针对此类活动进行训练。

在对 ChatGPT 作为事件响应工具的实用程序的分析中,安全分析师发现 ChatGPT 可以识别在受感染系统上运行的恶意进程。通过使用Meterpreter和PowerShell Empire代理感染了一个系统,以对手的角色采取了共同的步骤,然后对系统运行了ChatGPT驱动的恶意程序扫描器。LLM 识别出系统上运行的两个恶意进程,并正确忽略了137个良性进程,利用ChatGPT 在很大程度上减少了开销。

安全研究人员也在研究通用语言模型如何在特定的防御相关任务上执行。去年12月,数字取证公司Cado Security使用ChatGPT分析来自真实安全事件的JSON数据创建了黑客入侵的时间表,从而生成了一份很好的但并不完全准确的报告。安全咨询公司NCC Group则尝试使用ChatGPT作为查找代码漏洞的一种方式,虽然ChatGPT确实做到了,但漏洞识别并不总是很准确。

从实际的使用来看,安全分析师,开发人员和逆向工程师在使用 LLM 时需要小心,特别是对于超出其能力范围的任务。安全咨询公司NCC Group的首席科学家Chris Anley说,“我绝对认为专业开发人员和其他使用代码开展工作的人应该探索 ChatGPT 和类似的模型,但更多的是为了灵感,而不是绝对正确的事实结果,”他说,并补充说“安全代码审查不是我们应该使用 ChatGPT 的事情,所以期望它第一次就完美是不公平的。”

使用 AI 分析 IoC

安全和威胁研究通常会以报告、演示文稿、博客文章、推文和其他类型的内容的形式公开披露其调查结果(对手指标、战术、技术和程序)。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

ChatGPT 在威胁检测领域的应用及潜在风险

因此,我们最初决定检查 ChatGPT 对威胁研究的了解,以及它是否可以帮助识别简单的、众所周知的对手工具,如 Mimikatz 和快速反向代理,并发现常见的重命名策略。输出看起来很有希望!

那么对于经典的入侵指标,例如众所周知的恶意哈希和域名ChatGPT能回答正确吗?不幸的是,在我们的快速实验中,ChatGPT 无法产生令人满意的结果:它未能识别 Wannacry 的知名哈希值(哈希:5bef35496fcbdbe841c82f4d1ab8b7c2).

ChatGPT 在威胁检测领域的应用及潜在风险

对于多个 APT 活动使用的域名,ChatGPT 生成了一个基本相同的域名列表并提供了 APT 攻击者的描述,我们可能对有些域名一无所知?

至于 FIN7 使用的域名,chatGPT 正确地将它们归类为恶意域名,尽管它给出的原因是,“域名很可能是试图欺骗用户相信它是一个合法的域名”,而不是有众所周知的入侵指标。

ChatGPT 在威胁检测领域的应用及潜在风险

虽然最后一个针对模仿知名网站域名的实验给出了一个有趣的结果,但还需要更多的研究:很难说为什么 ChatGPT 对基于主机的安全事件产生的结果要比对域名和哈希等简单指标的结果更好。某些过滤器可能已应用于训练数据集,或者如果以不同的方式构建问题本身(定义良好的问题就是解决了一半的问题!)

无论如何,由于对基于主机的安全事件的响应看起来更有希望,我们指示 ChatGPT 编写一些代码来从测试 Windows 系统中提取各种元数据,然后询问元数据是否是泄露的指标:

ChatGPT 在威胁检测领域的应用及潜在风险

某些代码片段比其他代码片段更方便使用,因此我们决定继续手动开发此 PoC:我们筛选了 ChatGPT 的回答中包含有关存在入侵指标为“yes”的语句的事件输出,添加了异常处理程序和 CSV 报告,修复了小错误,并将代码片段转换为单独的 cmdlet, 这样就产生了一个简单的 IoC 安全扫描器 HuntWithChatGPT.psm1,能够通过WinRM扫描远程系统:

ChatGPT 在威胁检测领域的应用及潜在风险

ChatGPT 在威胁检测领域的应用及潜在风险

Get-ChatGPTIoCScanResults-apiKey OpenAI API key https://beta.openai.com/docs/api-reference/authentication -SkipWarning []-Path -IoCOnly []Export only Indicators of compromise-ComputerName Remote Computer's Name-Credential Remote Computer's credentials

我们用Meterpreter和PowerShell Empire代理感染了目标系统,并模拟了一些典型的攻击程序。在针对目标系统执行扫描程序时,它会生成一个包含 ChatGPT 结论的扫描报告:

ChatGPT 在威胁检测领域的应用及潜在风险

在 137 个良性进程中正确识别了两个恶意运行的进程,没有任何误报。

ChatGPT 在威胁检测领域的应用及潜在风险

请注意,ChatGPT 提供了它得出元数据是泄露指标的结论的原因,例如“命令行正在尝试从外部服务器下载文件”或“它正在使用”-ep bypass“标志,该标志告诉 PowerShell 绕过通常存在的安全检查”。

对于服务安装事件,我们稍微修改了问题,引导 ChatGPT “一步一步地思考”,这样它就会减慢速度并避免认知偏差,正如 Twitter 上的多位研究人员所建议的那样:

下面的 Windows 服务名称“ $ServiceName”和下面的 Launch String“ $Servicecmd”是妥协的指示器吗?请一步一步地思考。

ChatGPT 在威胁检测领域的应用及潜在风险

ChatGPT 成功识别了可疑的服务安装,没有出现误报。它产生了一个有效的假设,即“代码被用于禁用Windows系统上的日志记录或其他安全措施”。对于第二项服务,它提供了关于为什么该服务应被归类为入侵指标的结论:“这两条信息表明 Windows 服务和启动服务的字符串可能与某种形式的恶意软件或其他恶意活动相关联,因此应被视为入侵指标”。

ChatGPT 在威胁检测领域的应用及潜在风险

在相应的 PowerShell cmdlets Get-ChatGPTSysmonProcessCreationIoC 和 Get-ChatGPTProcessCreationIoC 的帮助下,分析了 Sysmon 和 Security 日志中的进程创建事件。最后报告强调,有些事件是恶意的:

ChatGPT 在 ActiveX 代码中识别出可疑模式:“命令行包括启动新进程 (svchost.exe) 和终止当前进程 (rundll32.exe) 的命令”。

正确地描述了 lsass 进程转储尝试:“a.exe 正在使用提升的权限运行,并使用 lsass(代表本地安全机构子系统服务)作为其目标;最后,dbg.dmp 表示在运行调试程序时正在创建内存转储”。

正确检测到 Sysmon 驱动程序卸载:“命令行包括卸载系统监视驱动程序的说明”。

ChatGPT 在威胁检测领域的应用及潜在风险

在检查 PowerShell 脚本块时,我们修改了问题,不仅检查指标,还检查是否存在混淆技术:

以下 PowerShell 脚本是否经过模糊处理或包含入侵指标?“$ScriptBlockText”

ChatGPT 不仅能够检测到混淆技术,还列举了一些 XOR加密,Base64编码和变量替换。

ChatGPT 在威胁检测领域的应用及潜在风险

当然,这个工具并不完美,可以同时产生误报或漏报。

在下面这个例子中,ChatGPT 没有检测到通过 SAM 注册表转储系统凭据的恶意活动行为,而在另一个示例中,将 lsass.exe 进程描述为可能表明“恶意活动或安全风险,例如系统上运行的恶意软件”:

ChatGPT 在威胁检测领域的应用及潜在风险

这个实验的一个有趣的结果是数据集中的数据缩减。在测试系统上模拟对手后,分析师要验证的事件数显著减少:

ChatGPT 在威胁检测领域的应用及潜在风险

请注意,测试是在新的非生产系统上执行的。如果是生产系统可能会产生更多的误报。

实验结论

在上面的实验中,安全分析师开展的实验始于向 ChatGPT 询问几种黑客工具,如 Mimikatz 和 Fast Reverse Proxy。AI模型成功地描述了这些工具,但是当被要求识别众所周知的哈希和域名时,ChatGPT失败了,没有正确描述。例如,LLM 无法识别WannaCry恶意软件的已知哈希值。然而,识别主机上恶意代码的相对成功使得安全分析师尝试要求ChatGPT创建一个PowerShell脚本,目的是为了从系统中收集元数据和入侵指标,并将其提交给LLM。

总体而言,安全分析师使用 ChatGPT 分析了测试系统上 3500 多个事件的元数据,发现了 74 个潜在的入侵指标,其中 17 个是误报。该实验表明,ChatGPT 可用于为那些在未运行端点检测和响应 (EDR) 系统、检测代码混淆或逆向工程代码二进制文件的公司收集取证信息。

虽然 IoC 扫描的确切实施目前可能不是一个非常具有成本效益的解决方案,每个主机大约15-25美元,但它显示了有趣的中性结果,并揭示了未来研究和测试的机会。我们在研究过程中注意到如下几个ChatGPT作为安全分析师生产力工具的领域:

系统检查入侵指标,尤其是在您仍然没有充满检测规则的 EDR 并且需要执行一些数字取证和事件响应 (DFIR) 的情况下;

将当前基于签名的规则集与 ChatGPT 输出进行比较以识别差距 — 总有一些技术或程序是您作为分析师不知道或忘记为其创建签名的。

检测代码混淆;

相似性检测:将恶意软件二进制文件提供给 ChatGPT,并尝试询问它是否有新的二进制文件与其他二进制文件相似。

正确提出问题就已经解决了一半的问题,试验问题和模型参数中的各种语句可能会产生更有价值的结果,即使对于哈希和域名也是如此。此外,要当心这可能产生的误报和漏报。因为归根结底的说,这只是另一个容易产生意外结果的统计神经网络。

合理使用和隐私规则需要澄清

类似的实验还提出了一些关于提交给OpenAI的ChatGPT系统的数据的关键问题。公司已经开始反对使用互联网上的信息创建数据集,Clearview AI和Stability AI等公司面临诉讼,试图减少其机器学习模型的使用。

隐私是另一个问题。NCC Group的Anley说,“安全专业人员必须确定提交的入侵指标是否暴露了敏感数据,或者提交软件代码进行分析是否侵犯了公司的知识产权。”,“向 ChatGPT 提交代码是否是个好主意在很大程度上取决于具体情况,”他还说,“很多代码都是专有的,受到各种法律保护,所以我不建议人们向第三方提交代码,除非他们得到许可。”

其他安全专家也发出了类似的警告:使用 ChatGPT 检测入侵会向系统发送敏感数据,这可能违反公司政策,并可能带来业务风险。通过使用这些脚本,你可以将数据(包括敏感数据)发送到OpenAI,所以要小心,事先咨询系统所有者。

本文翻译自:https://securelist.com/ioc-detection-experiments-with-chatgpt/108756/

AppMall应用商店 AppMall应用商店

AI应用商店,提供即时交付、按需付费的人工智能应用服务

AppMall应用商店 56 查看详情 AppMall应用商店

以上就是应用威胁检测技术:保护网络安全的关键,风险也需考虑的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/556344.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月9日 22:43:48
下一篇 2025年11月9日 22:48:21

相关推荐

  • ai做html怎么运行_AI生成html运行步骤【教程】

    答案是使用AI生成HTML代码后,将其保存为.html文件并用浏览器打开即可运行。具体步骤为:1. 在AI工具中输入需求生成HTML代码;2. 将代码复制到文本编辑器并另存为index.html,编码选UTF-8,类型选“所有文件”;3. 双击该文件用浏览器打开,若无法正常显示需检查文件后缀、编码及…

    2025年12月23日
    000
  • 了解如何有效学习canvas技术

    如何系统地学习 canvas 技术? 在现代网页开发中,canvas 是一项非常重要的技术,它可以通过 JavaScript 来动态绘制图形,实现丰富的交互效果。想要系统地学习 canvas 技术,以下三个步骤可以帮助你入门。 第一步:了解基础概念和语法在学习任何技术之前,首先需要了解它的基础概念和…

    2025年12月21日
    000
  • p5.js中类方法声明的语法解析与常见错误修复指南

    本文旨在解决从java processing迁移至p5.js时常见的语法错误,特别是类内部方法声明不当引发的问题。我们将深入探讨javascript中全局函数与类方法声明的语法差异,提供清晰的示例代码,并指导如何识别和修复“unexpected token”及“declaration or stat…

    2025年12月21日
    000
  • p5.js中类方法声明的语法修正与迁移指南

    本文深入探讨了将Processing/Java代码转换为p5.js时,因JavaScript类方法声明语法差异而引发的常见错误。我们将重点解析`Unexpected token`和`Declaration or statement expected`等错误信息,明确全局函数与类成员方法在JavaSc…

    2025年12月21日
    000
  • TypeScript泛型函数中复杂对象结构类型推断的精确控制

    本文探讨了在typescript中处理复杂嵌套对象结构时,如何为泛型函数实现精确的类型推断。通过一个具体的汽车品牌和车型数据场景,我们分析了`object.values`等操作可能导致类型信息丢失的问题。核心解决方案是利用映射类型(mapped types)重构数据结构,以显式地建立泛型键与对应值之…

    2025年12月21日
    000
  • 解决 ChatGPT 扩展选择器失效问题:一个实战教程

    本文旨在帮助开发者解决 ChatGPT 网页更新导致扩展选择器失效的问题。通过分析问题原因,提供利用开发者工具查找新选择器的方法,并展示了使用 getElementsByClassName() 替代 querySelector() 的解决方案,以确保扩展功能在 ChatGPT 最新版本中正常运行。 …

    2025年12月20日
    000
  • ChatGPT 扩展失效:定位新版选择器并修复

    本文旨在帮助开发者解决因 ChatGPT 网页更新导致扩展失效的问题。通过分析失效原因,提供利用开发者工具定位新版选择器的实用方法,并给出示例代码,帮助开发者快速修复扩展,恢复其功能。 当 ChatGPT 网页更新时,依赖于特定 CSS 选择器的扩展程序可能会失效。这通常是因为网页结构的改变导致原有…

    2025年12月20日
    000
  • ChatGPT 扩展失效?定位新版选择器的实用指南

    本文旨在帮助开发者解决因 ChatGPT 网页更新导致扩展失效的问题。重点讲解如何定位新版 ChatGPT 网页中的目标元素,并提供使用 getElementsByClassName() 方法的示例代码,帮助开发者快速修复和更新扩展,使其重新适配新版 ChatGPT 网页。 ChatGPT 网页频繁…

    2025年12月20日
    000
  • ChatGPT 扩展插件选择器失效问题排查与解决方案

    本文旨在帮助开发者解决 ChatGPT 扩展插件因页面更新导致选择器失效的问题。通过分析页面结构变化,提供使用 getElementsByClassName() 方法替代 querySelector() 的解决方案,并提供在不同浏览器环境下调整选择器的思路,确保扩展插件的稳定运行。 由于 ChatG…

    2025年12月20日
    000
  • 应对ChatGPT界面更新:浏览器扩展选择器失效的定位与修复

    本文针对ChatGPT界面更新导致浏览器扩展选择器失效的问题,提供了一套定位与修复策略。核心在于利用浏览器开发者工具识别新的DOM结构和类名,并建议从不稳定的querySelector转向更适合动态UI的getElementsByClassName等方法,以确保扩展的稳定运行。 在开发浏览器扩展时,…

    2025年12月20日
    000
  • LINE Bot 多消息类型回复:文本与贴图的组合发送指南

    本文旨在解决 LINE Bot 开发中,通过 Messaging API 组合发送文本消息和贴图时遇到的 400 Bad Request 错误。核心问题在于对同一 replyToken 进行多次 replyMessage 调用,而正确的做法是利用 API 支持在单次调用中发送一个消息数组,从而实现文…

    2025年12月20日
    000
  • 使用LINE Bot与OpenAI API发送文本和贴图的完整教程

    本文详细介绍了如何在LINE Bot中集成OpenAI API生成文本回复,并在此基础上发送LINE贴图。核心挑战在于LINE Messaging API的replyToken通常只能使用一次,导致连续发送文本和贴图时出现400错误。解决方案是利用API支持一次性发送多条消息的特性,将文本和贴图消息…

    2025年12月20日
    000
  • 优化OpenAI API:解决GPT应用中意外代码生成问题

    本教程旨在解决使用OpenAI GPT-3.5 API(如text-davinci-003)时,模型意外生成无关代码的问题。文章强调了选择更适合代码生成任务的模型(如gpt-3.5-turbo或gpt-4)的重要性,并深入探讨了通过优化提示词(Prompt Engineering)来提升模型响应质量…

    2025年12月20日
    200
  • 解决 Next.js API 路由无法访问 Azure 云函数的问题

    第一段引用上面的摘要: 本文旨在帮助开发者解决 Next.js API 路由无法访问 Microsoft Azure 云函数的问题。主要原因通常是由于 process.env.VERCEL_URL 环境变量配置不正确,导致 Next.js 应用尝试通过 IPv6 的本地回环地址 ::1 连接云函数,…

    2025年12月20日
    000
  • 在Next.js API路由中高效传输OpenAI流式响应到客户端

    本文详细介绍了如何在Next.js应用的API路由中,以流式传输的方式将OpenAI的响应发送给客户端,从而实现类似ChatGPT的实时交互体验。针对旧版Node.js环境限制和API密钥暴露等常见问题,我们提出了一种基于Next.js App Router和Web标准API(如ReadableSt…

    2025年12月20日
    000
  • Node.js ES Modules中openai导入异常及误导性错误排查

    本文探讨了在Node.js ES Modules (ESM) 环境下使用openai npm包时,遇到的一个看似是SyntaxError的模块导入问题。文章详细分析了问题现象,揭示了其背后实则是一个与导入语句无关的运行时逻辑错误,并解释了为何这类深层问题可能导致误导性的编译或模块加载错误。通过代码示…

    2025年12月20日
    000
  • 深入解析Node.js中误导性模块导入错误的排查与解决方案

    本文深入探讨了Node.js项目中一个看似是模块导入错误(SyntaxError: The requested module ‘openai’ does not provide an export named ‘Configuration’),但实际根…

    2025年12月20日
    000
  • 探索chatgpt开发的挑战和局限性

    ChatGPT:机遇与挑战并存 OpenAI研发的ChatGPT彻底改变了人机交互方式,其应用范围涵盖客户支持、内容创作等诸多领域。然而,ChatGPT的发展并非一帆风顺,仍面临诸多挑战与局限。本文将深入探讨这些问题,并提出相应的应对策略。 1. 训练数据限制 ChatGPT的核心局限在于其依赖于预…

    2025年12月19日
    000
  • DeepSeek和Chatgpt可以&#t正确:如何使用元数据更新Cloudflare KV对

    使用cloudflare kv更新键值对及其元数据 本文提供使用Cloudflare KV API更新键值对及其元数据的代码示例。 虽然大型语言模型可以生成代码,但仔细阅读官方文档仍然至关重要。 以下代码片段演示了如何使用fetch API 更新Cloudflare KV中的键值对,同时更新其元数据…

    2025年12月19日
    000
  • 使用C++框架的潜在风险与挑战

    c++++框架存在风险和挑战,包括:资源泄漏:框架可能分配却不释放资源。内存安全:框架中的错误可能导致缓冲区溢出等内存错误。性能问题:框架引入额外开销,影响性能。过度依赖:过度依赖框架限制代码可移植性和维护性。 C++ 框架潜在的风险与挑战 简介 C++ 框架为开发者提供了预先构建的组件和工具,以简…

    2025年12月18日
    000

发表回复

登录后才能评论
关注微信