iPhone 的芯片比一半硬币小,云服务器中的芯片比一角纸币小,但现在,一个比 iPad 还大的芯片制造出来了。
它也成了目前史上最大的计算机芯片。
这个芯片名为 Cerebras Wafer Scale Engine ,由加利福尼亚一家名为 Cerebras 的初创公司制造,尺寸约为 8 英寸 ×8 英寸。
我们先来看看它「惊人」的性能参数:
- 12,000 亿个晶体管
- 46,225 平方毫米的芯片面积
- 400,000 个 AI 可编程内核
- 18 GB 超快速片上存储器(SRAM)
- 9 PB /s 内存带宽
- 100 Petabits /s 结构带宽
- 稀疏性的原生优化(避免乘以零)
- 软件与标准 AI 框架(如 TensorFlow 和 PyTorch)的兼容性
如果你对这些参数的程度不熟悉的话,要知道,上个月 AMD 发布的世界上功能最强大的 Epyc 芯片,也只拥有 320 亿个晶体管和 64 个内核。
比起世界上领先的图形处理单元,Cerebras Wafer Scale Engine 的高速片上存储器大了 3,000 倍,内存带宽大了 10,000 倍,它比最大的 Nvidia GPU 芯片面积也大了 56.7 倍。
按理说,在半导体行业中,其实更大的不代表就是更好。
但其创始人兼首席执行官安德鲁・费尔德曼(Andrew Feldman)表示,更大的芯片,就是为了满足更与时俱进的人工智能。
这背后的逻辑很简单:AI 对我们的生活影响越来越大,数据库也越来越大,但现在人工智能行业进步的主要瓶颈,就是培训模型需要极长时间。
高性能 AI 的深度学习,需要通过大量的计算和频繁的数据访问进行训练,才能不断改进和升级,一个更强大的处理器,才能尽可能快地处理海量增长的新数据。
▲ Andrew Feldman 和原始的 SeaMicro 盒子
该芯片使用台积电的 16 纳米工艺制造的 300 毫米晶圆切割而成,这是单个晶圆级的解决方案,比起以往大多数芯片都是数十上百个集合起来,它能通过 84 个互连芯片组成的晶圆直接联动工作。
这不仅克服了数 10 年前芯片尺寸的技术限制,而且这个芯片还具有 400000 个 AI 优化的内核,具有灵活性、可编程性。
▲典型的硅片包含大约 100 个计算机芯片. 图片来自:GETTY IMAGES
再加上比 GPU 大 3000 倍的片上内存,解决了以往需要跨多个设备和内存层并行计算的问题,现在只用一个设备就能存储和处理整个神经网络。
等于就是在一个芯片上,构建了带有内存的一整个计算机集群。
最后,与具有数百个传统加速器的机架式服务器相比,Cerebras 具有带宽高、延迟低的独特通信结构,比现有的解决方案性能速度快数千倍,可以用以往无法想象的高效率来工作。
更多的内核、更大的本地内存、低延迟高带宽结构,共同构成了加速 AI 工作的绝佳环境。
Cerebras 表示,该芯片可以驱动复杂的人工智能(AI)系统,带来 AI 技术的巨大飞跃,应用在未来的无人驾驶汽车、监控软件市场等各个领域。
但是,芯片制造商通常不会制造这么大的芯片,因为这种大胆的设计,必须克服重大的技术障碍,包括互连、制造、封装、冷却等等。
即便是用了再精细的制造技术,这么一大块芯片也不可能没有任何缺陷。虽然该公司打算使用「冗余处理核心」技术,抛弃制造过程中一定数量的「坏」芯片,但量产良品率过低,也定会是个难越的坎。
▲ Cerebras 正在设计自己的测试和包装系统
另外,冷却芯片也是个问题。小型计算机芯片使用的功率低,很容易冷却,而 Cerebras 庞大的芯片不仅仅是散热器和风扇就能冷却,而是需更专业的基础设施来协助。
此外,芯片由于太大而无法放入任何传统封装中,Cerebras 必须发明定制包装技术和工具来应对挑战。
这也是为什么它适合人工智能领域,因为那也是现在大笔资金流向的地方。
总而言之,Cerebras 芯片的规模和雄心是疯狂的。但因为缺乏性能和功耗的细节,现在很难评估 Cerebras 芯片在未来的影响力。
Cerebras 表示,它目前正在几家大型潜在客户中开展测试系统,并将于 10 月份开始商用。但它不会单独销售或作为扩展卡销售,Cerebras 希望在 2020 年中期推出围绕此类芯片构建的完整服务器。
预计未来几个月,Cerebras 芯片还会公布更多技术的细节,这项技术,也必会随着 AI 日新月异的进程而持续升温。
文中部分图片来自:Cerebras
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。
from 爱范儿 https://ift.tt/2MpKpdG
via IFTTT
没有评论:
发表评论