尽管全球人工智能产业还处于初期发展阶段,但随着政府和产业界的积极推动, 人工智能技术在大规模产业化应用方面突飞猛进,在算法和芯片等人工智能基础技术层面积累了强大的技术创新,这些成果未必能即时商业化,但对未来科技的影响深远。
为了更好地厘清当前AI 芯片领域的发展态势,进一步明确 AI 芯片在新技术形势下的路线框架、关键环节及应用前景,北京未来芯片技术高精尖创新中心根据学术界和工业界的最新实践,邀请国内外AI 芯片领域的顶尖研究力量,共同开展《人工智能芯片技术白皮书》的编制工作。
1 前言
1.1 背景与意义
1.2 内容与目的
2 AI 芯片的关键特征
2.1 技术总述
2.2 新型计算范式
2.3 训练和推断
2.4 大数据处理能力
2.5 数据精度
2.6 可重构能力
2.7 软件工具
3 AI 芯片发展现状
3.1 云端AI 计算
3.2 边缘AI 计算
3.3 云和端的配合
4 AI 芯片的技术挑战
4.1 冯·诺伊曼瓶颈
4.2 CMOS 工艺和器件瓶颈
5 AI 芯片架构设计趋势
5.1 云端训练和推断:大存储、高性能、可伸缩
5.2 边缘设备:把效率推向极致
5.3 软件定义芯片
6 AI 芯片中的存储技术
6.1 AI 友好型存储器
6.2 片外存储器
6.3 片上(嵌入型)存储器
6.4 新兴的存储器
7 新兴计算技术
7.1 近内存计算
7.2 存内计算(In-memory Computing)
7.3 基于新型存储器的人工神经网络
7.4 生物神经网络
7.5 对电路设计的影响
8 神经形态芯片
8.1 神经形态芯片的算法模型
8.2 神经形态芯片的特性
8.2.1 可缩放、高并行的神经网络互联
8.2.2 众核结构
8.2.3 事件驱动
8.2.4 数据流计算
8.3 机遇与挑战
9 AI 芯片基准测试和发展路线图
10 展望未来
参考文献
索引
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
|