M1076 的功耗为 3 瓦,每秒可执行高达 25 万亿次操作 (TOPS)。新产品线包括单芯片、适用于低占用空间应用的 PCIe M2 卡和最多 16 个芯片的 PCIe 卡。现在,边缘设备可以以更高的分辨率和帧速率执行复杂的AI 应用程序,从而产生卓越的推理结果。计算发生在存储数据的同一个地方。
上个月,Mythic在 C 轮融资中筹集了 7000 万美元,黑石是主要投资者,由惠普企业 (HPE) 共同领导。
为什么是Mythic的AMP?
在传统计算机中,数据会定期从 DRAM 内存传输到 CPU。内存保存程序和数据。计算机中的处理器和内存是分开的,数据在两者之间移动。多年来,处理器速度急剧上升。与此同时,内存的进步主要集中在密度——在更小的空间中存储更多数据的能力——而不是传输速率,导致延迟。
简而言之,处理器无论速度有多快,在从内存中获取数据时都必须处于空闲状态,并且取决于传输速率——这就是所谓的冯诺依曼限制。因此,将计算和内存合并到单个设备中就成为了大家探索的解决方法,而模拟 AI 就消除了冯诺依曼瓶颈,从而显着提高了性能。此外,由于没有数据传输,任务可以在很短的时间内完成,并且消耗的能量也少得多。
每个 Mythic ACE 都配有一个数字子系统,包括 32 位 RISC-V 纳米处理器、64KB SRAM、SIMD 矢量引擎和高吞吐量片上网络 (NoC) 路由器。模拟矩阵处理器能够以高达 25 TOPS 的速度提供高能效的 AI 推理。
“边缘设备现在可以部署强大的 AI 模型,而不会面临高功耗、热管理和外形尺寸限制的挑战,”该公司表示。
边缘人工智能
Mythic 的主要重点是边缘 AI 部署。该公司还在数据中心提供服务器级计算。企业可以使用边缘 AI 来部署在边缘设备上本地运行的ML 模型。然而,边缘人工智能面临一些挑战:
低功耗:设备的功耗和相关热量随着更多功能和功能的添加而增加。有时,它们由功率预算有限的以太网供电 (PoE) 供电。即使在 0.5 或 2W 时,设备也需要表现出强大的性能。
不使用时功率应该接近于零,并且这些不同模式之间的切换应该快速而简单。
小尺寸:在数据源运行的AI算法具有最小的延迟问题,并且不会因视频压缩而损失准确性;因此,不需要大型 PCIe 卡、大型散热器或风扇。整个系统需要适合其他人使用的 22mm x 30mm M.2 A+E 卡。
即使使用更大的 PCIe 卡,加速器和冷却解决方案的大小也决定了可以塞入多少 AI。
成本效益:以可承受且有效的价格提供高功率计算的能力为客户提供了根据客户需求进行扩展的自由度。
迄今为止,该公司已经筹集了 1.652 亿美元,用于为智能家居、智慧城市、AR/VR、无人机、视频监控甚至制造业轻松且经济高效地部署强大的人工智能。
『本文转载自网络,版权归原作者所有,如有侵权请联系删除』