清华光学 AI 登 Nature!物理神经网络,反向传播不需要了

用光训练神经网络清华成果最新登上了 nature!

无法应用反向传播算法怎么办?

他们提出了一种全前向模式(Fully Forward Mode,FFM)的训练方法,在物理光学系统中直接执行训练过程,克服了传统基于数字计算机模拟的限制。

 清华光学 AI 登 Nature!物理神经网络,反向传播不需要了

简单点说,以前需要对物理系统进行详细建模,然后在计算机上模拟这些模型来训练网络。而 FFM 方法省去了建模过程,允许系统直接使用实验数据进行学习和优化。

这也意味着,训练不需要再从后向前检查每一层(反向传播),而是可以直接从前向后更新网络的参数。

打个比方,就像拼图一样,反向传播需要先看到最终图片(输出),然后逆向一块块检查复原;而 FFM 方法更像手中已有部分完成的拼图,只需按照一些光原理(对称互易性)继续填充,而无需回头检查之前的拼图。

 清华光学 AI 登 Nature!物理神经网络,反向传播不需要了

这样下来,使用 FFM优势也很明显:

一是减少了对数学模型的依赖,可以避免模型不准确带来的问题;二是节省了时间(同时能耗更低),使用光学系统可以并行处理大量的数据和操作,消除反向传播也减少了整个网络中需要检查和调整的步骤。

论文共同一作是来自清华的薛智威、周天贶,通讯作者是清华的方璐教授、戴琼海院士。此外,清华电子系徐智昊、之江实验室虞绍良也参与了这项研究。

消除反向传播

一句话概括 FFM 原理:

将光学系统映射为参数化的现场神经网络,通过测量输出光场来计算梯度,并使用梯度下降算法更新参数。

简单说就是让光学系统自学,通过观察自己如何处理光线(即测量输出光场)来了解自己的表现,然后利用这些信息来逐步调整自己的设置(参数)。

下图展示了 FFM 在光学系统中的运行机制:

其中 a 为传统设计方法的局限性;b 为光学系统的组成;c 为光学系统到神经网络的映射。

 清华光学 AI 登 Nature!物理神经网络,反向传播不需要了

展开来说,一般的光学系统(b),包括自由空间透镜光学和集成光子学,由调制区域(暗绿色)和传播区域(浅绿色)组成。在这些区域中,调制区域的折射率是可调的,而传播区域的折射率是固定的。

而这里的调制和传播区域可以映射到神经网络中的权重和神经元连接。

在神经网络中,这些可调整的部分就像是神经元之间的连接点,可以改变它们的强度(权重)来学习。

利用空间对称互易性原理,数据和误差计算可以共享相同的前向物理传播过程和测量方法。

这有点像镜子里的反射,系统中的每个部分都能以相同的方式响应光的传播和错误反馈。这意味着无论光如何进入系统,系统都能以一致的方式处理它,并根据结果来调整自己。

这样,可以在现场直接计算梯度,用于更新设计区域内的折射率,从而优化系统性能。

通过现场梯度下降方法,光学系统可以逐步调整其参数,直至达到最优状态。

原文将上述全前向模式的梯度下降方法(替代反向传播)用方程最终表示为:

 清华光学 AI 登 Nature!物理神经网络,反向传播不需要了

一种光学神经网络训练方法

作为一种光学神经网络训练的方法,FFM 有以下优势:

与理想模型相当的准确率

使用 FFM 可以在自由空间光学神经网络(Optical Neural Network,ONN)上实现有效的自训练过程。

 清华光学 AI 登 Nature!物理神经网络,反向传播不需要了

要说明这个结论,研究人员首先用一个单层的ONN 在基准数据集上进行了对象分类训练(a)。

具体来说,他们用了一些手写数字的图片(MNIST 数据集)来训练这个系统,然后将结果进行了可视化(b)。

结果显示,通过 FFM 学习训练的 ONN 在实验光场与理论光场之间相似性极高(SSIM 超过 0.97)。

换句话说,它学习得非常好,几乎能够完美复制给它的示例。

不过研究人员也提醒:

由于系统存在的不完美之处,理论上计算出的光场和梯度无法完全准确地反映实际物理现象。

接下来,研究人员用更复杂的图片(Fashion-MNIST 数据集)来训练系统识别不同的时尚物品。

一开始,当层数从 2 层增加到 8 层,计算机训练网络的平均准确度几乎只有理论准确度的一半。

而通过 FFM 学习方法,系统的网络准确度提升到 92.5%,接近理论值。

这表明了,随着网络层数的增加,传统方法训练的网络性能下降,而 FFM 学习能够维持高精度。

同时,通过将非线性激活纳入 FFM 学习,可以进一步提升 ONN 的性能。在实验中,非线性 FFM 学习能够将分类准确率从 90.4% 提高到 93.0%。

研究进一步证明,通过批量训练非线性 ONN,错误传播过程可以被简化,并且训练时间仅增加 1 到 1.7 倍。

高分辨率的聚焦能力

FFM 在实际应用中也能实现高质量的成像,即使在复杂的散射环境中也能达到接近物理极限的分辨率。

 清华光学 AI 登 Nature!物理神经网络,反向传播不需要了

首先,当光波进入散射介质(如雾、烟或生物组织等),聚焦会变得复杂,不过光波在介质中的传播往往保持一定的对称性。

FFM 就利用了这种对称性,通过优化光波的传播路径和相位,以减少散射效应对聚焦的负面影响。

其效果也很显著,图 b 展示了 FFM 与 PSO(粒子群优化)这两种优化方法的对比。

具体来说,实验采用了两种散射介质,一种是随机相位板(Scatterer-I),另一种是透明胶带(Scatterer-II)。

在这两种介质中,FFM 仅经过 25 次设计迭代就实现了收敛(更快找到优化解),收敛损失值分别为 1.84 和 2.07(越低性能越好)。

而 PSO 方法需要至少 400 次设计迭代才能达到收敛,且在最终收敛时的损失值为 2.01 和 2.15。

同时,图 c 展示了 FFM 能够不断自我优化,它设计的焦点从最初的随机分布逐渐演化和收敛到一个紧密的焦点。

在 3.2 mm × 3.2 mm 的设计区域内,研究人员进一步对 FFM 和 PSO 优化的焦点进行了均匀采样,并比较了它们的 FWHM(半峰全宽)和 PSNR(峰值信噪比)。

结果显示,FFM 聚焦精度更高,成像质量更好。

图 e 进一步评估了设计的焦点阵列在扫描位于散射介质后面的分辨率图时的性能。

结果令人惊喜,FFM 设计的焦点尺寸接近 64.5 m 的衍射极限,这是光学成像理论上的最高分辨率标准。

能够并行成像视线之外的物体

既然在散射介质中如此厉害,研究人员又尝试了非视距(NLOS)场景,即物体被隐藏在视线之外的地方。

 清华光学 AI 登 Nature!物理神经网络,反向传播不需要了

FFM 利用了从隐藏物体到观察者之间光路的空间对称性,这允许系统通过全光学的方式在现场重建和分析动态隐藏物体。

通过设计输入波前,FFM 能够同时将物体中的所有网格投影到它们的目标位置,实现隐藏物体的并行恢复。

实验中使用了字母形状的隐藏铬靶 “T”、”H” 和 “U”,并设置了曝光时间(1 毫秒)和光功率(0.20 mW),以实现对这些动态目标的快速成像。

结果显示,没有 FFM 设计的波前,图像会严重扭曲。而 FFM 设计的波前能够恢复所有三个字母的形状,SSIM(结构相似性指数)达到 1.0,表明与原始图像的高度相似性。

进一步,与人工神经网络(ANN)在光子效率和分类性能方面相比,FFM 显著优于 ANN,尤其是在低光子条件下。

具体而言,在光子数量受限的情况下(如许多反射或高度漫射的表面),FFM 能够自适应地纠正波前畸变,并需要更少的光子来进行准确分类。

在非 Hermitian 系统中自动搜索异常点

FFM 方法不仅适用于自由空间光学系统,还可以扩展到集成光子系统的自我设计。

 清华光学 AI 登 Nature!物理神经网络,反向传播不需要了

研究人员使用串联和并联配置的对称光子核心,构建了一个集成神经网络(a)。

实验中,对称核心通过不同水平的注入电流配置了可变光衰减器(VOA),实现了不同的衰减系数,以模拟不同的权重。

在图 c 中,对称核心中编程矩阵值的保真度非常高,时间漂移的标准偏差分别为 0.012%,0.012% 和 0.010%,表明矩阵值非常稳定。

并且,研究人员可视化了每层的误差。对比实验梯度与理论模拟值,其平均偏差为 3.5%。

在大约100 次迭代(epoch)后,网络达到了收敛状态。

实验结果显示,在三种不同的对称比例配置下(1.0、0.75 或 0.5),网络的分类准确度分别为 94.7%、89.2% 和 89.0%。

而使用 FFM 方法的神经网络,得到的分类准确度为 94.2%、89.2% 和 88.7%。

相比之下,如果使用传统的计算机模拟方法来设计网络,实验的分类准确度会低一些,分别为 71.7%、65.8% 和 55.0%。

最后,研究人员还展示了 FFM 可以自我设计非厄米特系统,通过数值模拟,无需物理模型即可实现对特异点的遍历。

非厄米特系统是物理学中的一个概念,它涉及到量子力学和光学等领域中的系统,这些系统不满足厄米特性(Hermitian)条件。

厄米特性与系统的对称性和能量的实数性有关,非厄米特系统则不满足这些条件,它们可能具有一些特殊的物理现象,比如特异点(Exceptional Points),这是系统的动力学行为在某些点上会发生奇异变化的地方。

总结全文,FFM 是一种在物理系统上实现计算密集型训练过程的方法,能够高效并行执行大多数机器学习操作。

更多详细实验设置、数据集准备过程,欢迎查阅原文。

代码:

https://zenodo.org/records/10820584

《Nature》原文:

https://www.nature.com/articles/s41586-024-07687-4

以上就是清华光学 AI 登 Nature!物理神经网络,反向传播不需要了的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/50870.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月8日 19:08:02
下一篇 2025年11月8日 19:36:30

相关推荐

  • 阐述什么是CSS3?

    网页制作Webjx文章简介:CSS3不是新事物,更不是只是围绕border-radius属性实现的圆角。它正耐心的坐在那里,已经准备好了首次登场,呷着咖啡,等着浏览器来铺上红地毯。            CSS3不是新事物,更不是只是围绕border-radius属性实现              …

    好文分享 2025年12月23日
    000
  • HTMLPagelinks怎么优化_分页链接SEO优化技巧

    答案是:分页SEO的核心在于通过“查看全部”页面集中权重或构建清晰的内部链接结构来引导搜索引擎理解页面关系。应优先创建“查看全部”页面整合内容,并设置canonical标签指向该页,同时确保分页导航为可抓取的HTML链接,包含前后页、首尾页及附近页码链接,以提升抓取效率、传递权重并改善用户体验,从而…

    2025年12月22日
    000
  • javascript的机器学习如何入门_有哪些可用的JavaScript库

    JavaScript适合浏览器端轻量推理与教学,不宜训练大模型;推荐从线性回归、KNN等简单任务入手,优先掌握张量操作、模型流程及Chrome调试技巧。 JavaScript 做机器学习确实可行,但得明确一点:它不适合训练大型模型,更适合在浏览器端做轻量推理、数据预处理、教学演示或与 Web 应用集…

    2025年12月21日
    000
  • JavaScript数学计算与数值分析库

    math.js适合日常复杂计算,numeric.js专精数值分析,simple-statistics用于统计分析,TensorFlow.js适用于AI与大规模数值运算。 JavaScript虽然原生支持基本的数学运算,但在处理复杂数学计算、数值分析或科学计算时,依赖第三方库能大幅提升开发效率和计算精…

    2025年12月21日
    000
  • JavaScript机器学习库应用

    答案:JavaScript机器学习库适用于多种场景。TensorFlow.js支持浏览器端图像分类与姿态识别,利用WebGL加速;ML5.js封装简洁,适合初学者快速调用预训练模型;Synaptic.js灵活构建自定义神经网络;Brain.js专注数值预测任务。选择依据为:功能全面选TensorFl…

    2025年12月21日
    100
  • LangChain HNSWLib 向量存储机制与数据持久化指南

    本文详细解析langchain中hnswlib向量存储的工作原理,明确其作为内存存储的特性,指出数据实际存储在项目部署的服务器上,而非langchain官方服务器。同时,文章将指导如何通过save_local()方法将内存中的向量数据持久化到本地文件,确保数据安全与可靠性,并探讨在实际应用中的注意事…

    2025年12月20日
    000
  • 如何用机器学习库(如TensorFlow.js)在浏览器中训练模型?

    完全可行,适合轻量级任务与隐私保护场景。通过CDN引入TensorFlow.js后,使用tf.sequential()构建模型,编译时配置优化器、损失函数等。将数据转为张量并归一化,调用model.fit()训练,支持回调监控。训练后可保存至本地或导出文件,后续加载进行预测。虽计算力受限,但合理设计…

    2025年12月20日
    000
  • 如何利用 JavaScript 实现一个简单的机器学习模型进行预测或分类?

    答案是JavaScript可实现简单机器学习模型。通过手动实现线性回归和kNN算法,可在前端完成基础预测与分类任务;结合TensorFlow.js则能训练神经网络,支持更复杂场景,适合轻量级应用开发。 用 JavaScript 实现一个简单的机器学习模型是完全可行的,尤其适合初学者理解基本原理或在前…

    2025年12月20日
    000
  • 如何用WebGPU加速浏览器端的机器学习推理?

    WebGPU通过提供现代、低开销的GPU计算能力,显著提升了浏览器端机器学习推理的性能。相比为图形渲染设计的WebGL,WebGPU原生支持通用计算,具备更低API开销、更高效的内存管理和更强的并行处理能力,能直接执行计算着色器,避免WebGL将数据编码到纹理等间接操作。其核心优势包括更高的执行效率…

    2025年12月20日
    000
  • JS 机器学习入门实践 – 使用 TensorFlow.js 实现基础神经网络

    使用TensorFlow.js可在浏览器或Node.js中用JavaScript实现基础神经网络,核心步骤包括:引入库、准备数据(如张量形式的输入输出)、定义模型架构(如序贯模型和全连接层)、编译模型(指定优化器和损失函数)、训练模型(设置epochs并监控损失)以及进行预测。以线性回归y=2x+1…

    2025年12月20日
    000
  • 如何用WebNN API在浏览器中运行神经网络模型?

    WebNN API通过提供标准化接口直接调用设备AI硬件,实现浏览器内高性能、低延迟的本地AI推理。它需将预训练模型转换为ML计算图,经编译后在支持的硬件上执行,相比TF.js等方案减少中间层开销,提升效率与隐私性。当前面临模型格式兼容性、浏览器与硬件支持碎片化、调试工具不足及内存管理挑战。未来将推…

    2025年12月20日
    000
  • c++如何实现一个简单的神经网络推理框架_c++ ONNX Runtime集成【AI】

    推荐集成ONNX Runtime而非手写推理框架,因其专为高效推理设计,支持多硬件后端、量化、图优化及原生C++ API,只需加载ONNX模型并执行推理即可。 用 C++ 实现一个“从零开始”的完整神经网络推理框架工程量大、易出错,不推荐;实际项目中更高效可靠的做法是集成成熟推理引擎——ONNX R…

    2025年12月19日
    000
  • 在嵌入式系统中构建C++驱动的低功耗算法模型

    在嵌入式系统中实现低功耗运行的关键之一是优化驱动层与算法模型的协同效率。c++++ 因其兼具高性能与面向对象的优势,成为构建高效驱动和轻量级算法模型的理想选择。重点在于如何利用 c++ 的特性,在资源受限的环境中实现响应迅速、能耗极低的系统行为。 使用C++封装硬件驱动以提升能效 直接操作寄存器虽然…

    好文分享 2025年12月19日
    000
  • 怎样在C++中实现神经网络_深度学习基础实现

    在c++++中实现神经网络的关键在于选择合适的库、定义神经元和层、实现激活函数、前向传播、反向传播,并选择优化算法。1. 选择合适的库,如eigen进行矩阵运算;2. 定义神经元和层类以实现前向传播;3. 实现sigmoid、relu等激活函数;4. 实现前向传播计算输出;5. 实现反向传播用于训练…

    2025年12月18日 好文分享
    000
  • C++在金融人工智能中的神经网络模型实现

    c++++适合实现神经网络,因其性能优异且提供内存管理。使用神经网络库(如tensorflow或eigen)可以构建神经网络模型,包括输入层、隐藏层和输出层。神经网络通过反向传播算法训练,涉及前向传播、计算损失、反向传播和权重更新。在股票价格预测的实战案例中,可以定义输入和输出数据,创建神经网络,并…

    2025年12月18日
    000
  • XML如何表示神经网络模型? 用XML描述神经网络层结构与参数的规范方法

    XML通过结构化标签描述神经网络的层类型、连接方式和参数,如定义全连接层,存储权重矩阵,并支持Base64编码或外部文件引用以提高效率,适用于模型架构交换而非大规模权重存储。 XML在表示神经网络模型时,通常通过定义一套结构化的标签和属性来描述模型的各个组成部分,比如层类型、连接方式、激活函数以及具…

    2025年12月17日
    000
  • XML如何表示神经网络模型?

    XML可用于表示神经网络模型,其优势在于结构化、可读性强、平台无关,适合描述模型架构;但局限性明显:文件冗余大、解析效率低、不擅长存储大型数值矩阵,导致在实际应用中多用于保存模型配置,权重等数据常分离存储于HDF5、NumPy等二进制文件;更高效的序列化格式如HDF5、JSON、Protobuf和O…

    2025年12月17日
    000
  • python中RNN和LSTM的基本介绍

    RNN通过隐藏状态传递时序信息,但难以捕捉长期依赖;LSTM引入遗忘门、输入门和输出门机制,有效解决梯度消失问题,提升对长距离依赖的学习能力,适用于语言建模、翻译等序列任务。 在处理序列数据时,比如时间序列、文本或语音,传统的神经网络难以捕捉数据中的时序依赖关系。RNN(循环神经网络)和LSTM(长…

    2025年12月14日
    000
  • PyTorch中VGG-19模型的微调策略:全层与特定全连接层更新实践

    本文详细介绍了在pytorch中对预训练vgg-19模型进行微调的两种核心策略:一是更新模型所有层的权重以适应新任务;二是通过冻结大部分层,仅微调vgg-19分类器中的特定全连接层(fc1和fc2)。文章将通过示例代码演示如何精确控制参数的梯度计算,并强调根据新数据集的类别数量调整最终输出层的重要性…

    2025年12月14日
    000
  • 本地加载TensorFlow MNIST .npz数据集教程

    本教程旨在解决tensorflow中因网络连接问题导致mnist数据集无法通过`tf.keras.datasets.mnist.load_data()`在线加载的困境。我们将详细指导用户如何手动下载`mnist.npz`文件,并利用numpy库将其高效、准确地加载到本地环境中,从而确保机器学习项目的…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信