AI公司流行AI芯片自研潮
数据来源: 芯片观察
发布时间:2023-10-11

随着OpenAI的破圈,AI成为当今科技行业的顶流,据业界预测,未来10年,AI或将超越人类的大部分智力。但AI发展的瓶颈之一却是其硬件:AI芯片,因此,各大AI公司已经开始流行AI芯片研发潮,早期探索的谷歌和亚马逊早已推出了匹配他们自身业务的AI芯片,在GPT大行其道之下,OpenAI和微软也将研发适合大模型的AI芯片。

OpenAI:探索中

据透露, AI 正在探索制造适合自己的大模型ChatGPT AI芯片,并已着手评估潜在的收购目标。从去年开始,OpenAI就在讨论各种方案,以解决 OpenAI 所依赖的昂贵人工智能芯片短缺的问题。

这些方案包括打造自己的AI芯片,与包括英伟达在内的其他芯片制造商更紧密地合作,以及在英伟达之外实现供应商多元化。

OpenAI公司首席执行官山姆-奥特曼(Sam Altman)已将收购更多人工智能芯片作为公司的首要任务。他曾公开抱怨图形处理器稀缺,而这一市场由英伟达(NVIDIA)主导,英伟达控制着全球最适合运行人工智能应用的芯片市场80%以上的份额。

自研AI芯片的原因

奥特曼之所以努力获取更多芯片,是因为他发现了两大问题:为 OpenAI 的软件提供动力的先进处理器短缺,以及运行为其工作和产品提供动力的硬件所需的"令人瞠目"的成本。

自2020年以来,OpenAI一直在一台大型超级计算机上开发其人工智能生成技术,这台超级计算机由其最大的支持者之一微软公司建造,使用了1万个英伟达(NVIDIA)图形处理器(GPU)。

运行 ChatGPT 对公司来说非常昂贵。根据伯恩斯坦分析师斯泰西-拉斯冈(Stacy Rasgon)的分析,每次查询大约需要 4 美分。如果 ChatGPT 的查询量增长到Google搜索规模的十分之一,那么最初将需要价值约 481 亿美元的 GPU,每年需要价值约 160 亿美元的芯片来维持运营。

微软:将于11月推出

今年9 月,有报道称微软开始下调英伟达H100 的芯片订单数量,而且放缓了收货速度,业界猜测是微软自研的 AI 芯片进入成熟阶段。

据The Information报道,微软计划在11月的年度开发者大会上推出该公司首款为人工智能设计的芯片。

微软的这款芯片是为训练和运行大型语言模型(LLM)的数据中心服务器设计的。微软的数据中心服务器目前使用英伟达的GPU为云客户提供先进的LLM,包括OpenAI和Intuit,以及支持微软生产力应用程序中的人工智能功能。

微软从2019 年开始即开发自家AI 芯片,代号为“Athena”,目的是降低对英伟达依赖,但微软真正的目地并非直接取代英伟达芯片,而是希望通过降低成本,并于多项服务中持续加入AI 功能。

亚马逊与谷歌已经推出了匹配他们自身业务的AI芯片,分别是Inferentia 和TPU。但对于微软来说,需要的是针对大模型的AI芯片,两者的设计可能完全不同。但微软可能还有一个目的,那就是自研的AI芯片可能还会给OpenAI供货,因为,OpenAI的最大股东就是微软。

此外,Meta也在自研适合自身的AI芯片,这家 Facebook 的所有者目前正在开发一种更新的芯片,它将涵盖所有类型的人工智能工作。

自 ChatGPT 流行以来,针对大模型的专用 AI 芯片出现了一股自研潮。OpenAI、微软自然不用多说,这是它们自身最大的需求,当Meta开始推出AI芯片的时候,下一个自研的将会是谁呢?或许是X了。

免责声明:本网站内容来自作者投稿或互联网转载,目的在于传递更多信息,不代表本网赞同其观点或证实其内容的真实性。文章内容及配图如有侵权或对文章观点有异议,请联系我们处理。如转载本网站文章,务必保留本网注明的稿件来源,并自行承担法律责任。联系电话:0535-6792766