东南教育网您的位置:首页 >互联网 >

Facebook开放其内部AI培训硬件和定制芯片

导读 很少有组织像Facebook Inc 那样大规模使用人工智能。社交网络的深度学习模型每天执行200万亿次预测,通过从头开始设计用于运行神经网络的

很少有组织像Facebook Inc.那样大规模使用人工智能。社交网络的深度学习模型每天执行200万亿次预测,通过从头开始设计用于运行神经网络的专用硬件,可以实现一定水平的输出。

在今天在加利福尼亚州圣何塞举行的开放计算峰会上,Facebook开源了构成其基础架构的三个核心构建块。它们包括设计用于培训深度学习模型的唯一功能强大的服务器,以及一对类似的专用内部设计芯片。

AI项目的培训阶段通常是整个开发工作流程中最耗费硬件的方面。在算法可以处理实时数据之前,工程师必须向其提供大量的培训信息,以帮助其学习寻找的模式以及方式。以Facebook为例,该公司的程序员利用超过35亿张公共图片的存储库来完善其模型。

它今天开源的AI培训服务器有助于加快这一过程。该机器被称为锡安(Zion),由八个中央处理单元提供动力,每个中央处理单元具有大量的所谓 DDR 内存,并且可以彼此共享此内存以协调处理。

管理员可以为Zion配备多达八个额外的芯片,这些芯片针对他们在给定项目中正在训练的特定AI类型进行了优化。这些加速器基于OAM,这是Facebook今天开源的 另一项技术。这是一种硬件标准,半导体制造商可以实施此标准,以将不同种类的芯片封装在一个通用的标准化模块中。

锡安(Zion)对OAM的使用使服务器具有高度的通用性。该服务器可以配备各种加速器,包括图形卡,现场可编程门阵列,甚至是完全定制的处理器,只要它们都属于同一标准化模块即可。

Facebook工程师Kevin Lee,Vijay Rao和William Christie Arnold写道:“ Zion分离了系统的内存,计算和网络密集型组件,从而使每个组件均可独立扩展。” “随着我们的AI培训工作负载的大小和复杂性不断增加,Zion平台可以随之扩展。”

Facebook与锡安(Zion)一同推出的两款芯片Kings Canyon和Mount Shasta的设计也反映了对可伸缩性的需求。它们是专用集成电路,社交网络巨头在硬件级别针对各自的目标工作负载进行了优化。

Kings Canyon旨在执行推理,这是已经受过训练的AI进行数据处理的术语。Facebook在专用的“加速器机架”中使用它,每个加速器机架都可以容纳多个芯片,并通过网络连接到公司数据中心的服务器。

另一种定制芯片Mount Shasta已针对视频转码进行了优化。在Facebook的数据中心中,处理器处理生成用户上传到社交网络的剪辑的低分辨率版本的任务。这样,互联网连接速度缓慢或不可靠的成员就可以更轻松地访问视频内容。

Facebook的工程师写道:“平均而言,我们期望视频加速器的效率比当前服务器高出很多倍。”

免责声明:本文由用户上传,如有侵权请联系删除!