> 新闻中心
    > 服务平台
  您当前的位置:首页 > 新闻中心 > 行业动态   
这个全球最大的芯片走进了“云”
发布者:lipeishan    时间:2021/9/26    点击:331
摘要:五个月前,当 Cerebras Systems推出其第二代晶圆级 芯片 系统 (CS-2) 时,该公司联合创始人兼首席执行官 and rew Feldman 暗示了公司即将推出的 云 计划,现在这些计划已经实现。


五个月前,当 Cerebras Systems推出其第二代晶圆级芯片系统 (CS-2) 时,该公司联合创始人兼首席执行官 Andrew Feldman 暗示了公司即将推出的云计划,现在这些计划已经实现。

日前,Cerrebras 和 Cirrascale Cloud Services 推出了 Cerebras Cloud @ Cirrascale 平台,通过 Cirrascale 的云服务提供对 Cerebras 的 CS-2 晶圆级引擎 (WSE) 系统的访问。

CS-2 机器运行了 850,000 个 AI 优化计算核心,重约 500 磅,安装在加利福尼亚州圣克拉拉的 Cirrascale 数据中心,但该服务将在全球范围内提供,开放访问CS-2 提供给任何有互联网连接和每周 60,000 美元用于训练非常大的 AI 模型的人。

“对于训练,我们没有发现延迟是一个问题,”Cirrascale 首席执行官 PJ Go 在上周与人工智能硬件峰会同时举行的媒体预发布会上说。

Feldman 表示同意,并补充说:“如果你要进行 20 小时或更长时间的训练,从克利夫兰到圣何塞的光速可能不是什么大问题。”

Cirrascale 的 Cerebras Cloud 客户将获得对 Cerebras 软件和编译器包的完全访问权限。

“编译器工具集位于 Cirrascale 开发的云工具集之下,”Feldman 说。“因此您将进入,您将获得对计算集群、存储、CS-2 的访问权;您将运行您的编译堆栈,您将完成您的工作,您将被设置检查点并存储在 Cirrascale 基础设施中,它将被识别,以便您可以稍后返回该工作。所有这些都已整合在一起。”

该环境支持 TensorFlow 和 PyTorch 等熟悉的框架,Cerebras Graph Compiler 自动将从业者的神经网络从其框架表示转换为 CS-2 可执行文件。据 Cerebras 称,这消除了对集群编排、同步和模型调整的需要。

通过每周最低买入——定价设定为每周 60,000 美元、每月 180,000 美元或每年 1,650,000 美元——Cirrascale 客户可以访问整个 CS-2 系统。“共享模式不适合我们,”Feldman 说。该存在的理由的晶圆级制度是为了“作为机器的大,你可以解决你的问题,你可以尽快,”他告诉HPCwire。

根据 Feldman 的说法,Cerebras 没有透露其 CS 系统的标价,但直接购买 CS-2 系统将使您花费“数百万美元”。

两位 CEO 都认为“先试后买”是 Cerebras Cloud 产品的动机之一,它将对 CS-2 的功能印象深刻的租用者转变为一个或多个系统的购买者。但这些公司也希望有很大一部分用户坚持使用云模式。

偏好 OPEX 是一个原因,但这也是技能和经验的问题。谈到这一点,Feldman 说:“关于我们行业的一个鲜为人知的事实是,实际上很少有人能够真正构建大型 GPU 集群,这种情况是多么罕见——需要的技能,而不仅仅是金钱。将大型模型传播到 250 多个 GPU 上的技能可能存在于世界上几十个组织中。”

Cerebras Cloud 通过基于云的硬件和软件基础设施提供性能,并通过 Cirrascale 门户访问计费、存储和其他服务,从而简化此过程。“对于我们来说,将我们的业务范围扩展到不同类型的客户是一个显而易见的选择,”费尔德曼说。

Cerebras 的第一个 CS 系统部署是在政府实验室空间(美国能源部是一个根本性的胜利,在 2019 年人工智能硬件峰会上宣布)和商业网站,主要是制药(葛兰素史克是客户)的内部部署。通过将 CS-2 作为托管服务进行访问,Cerebras 正在追求更广泛的组织,从初创公司到财富 500 强公司。

“我们一直致力于建立这种伙伴关系,”Cerebras Systems 产品副总裁 Andy Hock 在宣传视频中说。“我们开始专注于从头开始训练大型自然语言处理模型,如 BERT,我们将从那里扩展我们的产品。”

Cirrascale 创始人兼首席技术官 David Driggers 表示:“Cerebras CS-2 处理的工作负载是我们今天无法在 GPU 上完成的。”[这是]一个非常大规模的扩展场景,我们有一个模型,它不能并行化,但它可以处理大量数据。因此,当今最大的 NLP 模型需要大量的数据输入以及大量的计算。由于需要 IO 通信,因此在 [传统] 集群上很难做到这一点。

Cerebras CS-2 使我们能够利用非常大的内存空间、大型内置网络和大量内核,将 NLP 扩展到我们以前无法做到的高度。“

参加预简报电话会议的分析师 Karl Freun对合作伙伴关系表示赞同。”Cerebras 最近似乎在全力以赴,客户获胜,第二代 WSE,最近他们大胆声称他们正在构建一个比我们所见过的任何东西都大 1000 倍的大脑规模的 AI,“他告诉HPCwire .

”你拥有的是一种非常热门的商品(他们的技术),很多人都想尝试它,但谁又不想花大笔钱购买和部署 CS-2。输入 Cirrascale 和他们的 CS-2 云产品,这将使科学家能够更容易地、至少在某种程度上更实惠地获得业内最大、最快的 AI 处理器。毫无疑问,这将为 Cerebras 的未来创造新的机会,无论是在云中还是在本地。“

当被问及今天的 AI 芯片不适合未来的 AI 模型的风险时,Freund 说,”如果有的话,Cerebras 是一家公司,其架构正在向冰球前进的方向滑行:巨大的 AI。“

『本文转载自网络,版权归原作者所有,如有侵权请联系删除』

上一条:华为自研OLED驱动IC芯片来了,采用40nm技术,由中芯国际代工
下一条:中国将成全球最大芯片制造市场,芯片价格或遭遇下行周期
分享到: