AIGC动态欢迎阅读
原标题:网络规模、训练学习速度提升,清华团队在大规模光电智能计算方向取得进展
文章来源:机器之心
内容字数:5346字
内容摘要:将 ScienceAI设为星标第一时间掌握新鲜的 AI for Science 资讯编辑 | 紫罗随着大模型等人工智能技术的突破与发展,算法复杂度剧增,对传统计算芯片带来了算力和功耗的双重挑战。近年来,以光计算为基础、通过光电融合的方式构建光电神经网络的计算处理方法已经成为国际热点研究问题,有望实现计算性能的颠覆性提升。然而,光电神经网络的前向数学模型由对光场的精准物理建模得到,计算复杂度高、参数冗余度大;其学习机制沿用人工神经网络常用的梯度下降算法,面向大规模光电神经网络时优化速度慢、资源消耗高、收敛效果差。因此,现有学习架构仅能支撑小规模光电神经网络的训练,其网络容量和特征捕获能力不足以有效处理 ImageNet 等大型复杂数据集。近日,清华大学电子工程系方璐副教授课题组提出了面向大规模光电智能计算的:光学-人工双神经元学习架构(DuAl-Neuron opTical-artifici…
原文链接:点此阅读原文:网络规模、训练学习速度提升,清华团队在大规模光电智能计算方向取得进展
联系作者
文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台
暂无评论...