Cerebras推出人工智能超级计算机芯片
今天独角兽创业公司Cerebras公布了一些关于晶圆级AI芯片的细节,它已经保持了三年。尽管仍有许多悬而未决的问题,但新方法可能标志着半导体行业的一个重要里程碑,其中芯片历来受到单芯片掩模尺寸的限制。基本上,Cerebras设计了一个由84个互连芯片组成的晶圆,作为计算和存储器的一个设备,通过超快速的片上结构互连。虽然在芯片上构建超级计算机听起来像个好主意,但是建立一个晶圆级芯片阵列并不适合胆小的人才。
此外,如果Cerebras是正确的,AI可能只是晶圆级集成的开始; 应用程序越来越需要比CPU更好的性能。例如,我认为Cerebras的晶圆级方法可以完全改变高性能计算,如果它在完成第一个专注于AI的实现后将其注意力转向浮点核心。
Cerebras由硬件架构师Sean Lie和首席执行官Andrew Feldman共同创立,他是微服务器创新者Sea Micro的前创始人兼首席执行官(被收购 AMD 在2011年)。费尔德曼先生的新创业公司目前拥有近200名工程师,其中许多是Sea Micro校友,已筹资超过1.2亿美元,最近的估值为8.6亿美元。虽然大多数AI半导体初创公司都致力于构建更高效的核心阵列和片上存储器,以进行深度神经网络所需的矩阵和矢量处理,但Cerebras决定不再优化数学。相反,它努力实现极端的可扩展性。
如果您想知道是否确实需要这种性能水平,请考虑Google和NVIDIA最近发布的mlperf AI基准测试使用耗资数千万美元的AI超级计算机实现了约2小时的培训记录。正如百度高级研究员Greg Daimos所说,“在非常大的数据集上训练大型模型需要数月或数年的关键路径计算时间,这使得这些训练对现有系统中的任何现实问题都不切实际。”得出结论,该行业距离接近深度神经网络交互式训练的任何事物仍然是2-4个数量级。这符合Cerebras的目标,即提供1000倍的最先进的性能。与此同时,正在开发和培训的新网络越来越复杂和深入。