让内存干CPU的活儿 这项技术将芯片运行速度提升百倍( 六 )

为了提高效率 , 科研人员开发了各种加速部件和专用的深度学习处理器 , 前者的典型代表是图形处理器(GPU) , 后者的典型代表有谷歌公司的张量处理器(TPU)、国内的寒武纪处理器等 。

“CPU、GPU等处理器通过总线与内存相连 , 总线的传输速度决定了计算的效率 。 ”中国自动化学会混合智能专业委员会副主任、复旦大学计算机学院教授张军平告诉科技日报采访人员 , 人们正在尝试通过改进 , 减少数据在总线上的传输次数 , 提高计算效率 。 例如 , 科研人员让CPU具备部分的GPU功能 , 或使GPU具备一些CPU的功能等 。

刘轶表示 , 上述改进措施仍然属于冯·诺依曼结构 , 不能从根本上解决“存储墙”问题 。 相比之下 , PIM技术在解决“存储墙”问题上更具优势 。 首先 , 它的计算模式更适合深度学习等新型计算模式;其次 , PIM技术避免了冯·诺依曼结构处理器频繁访问内存这一问题 , 减少了数据传输次数 , 降低了功耗 。


推荐阅读