× 快速导航
新闻资讯
分类
ChatGPT 每月运营费 70 万美元!微软暗自研发 AI 芯片降成本
发布日期:2023-04-21 13:06:06

  半导体研究公司 SemiAnalysis 的首席分析师 Dylan Patel 近日在接受采访时透露,OpenAI 每天的运作可能要花费高达 70 万美元,因为人工智能(AI)运行所依赖的计算基础设施价格昂贵。

  ChatGPT 自去年底发布以来一直受到用户的青睐,它可以用来写求职信、制定课程计划和约会方案等等,不过 ChatGPT 对用户的回复,往往需要大量的算力。

  Patel 称,他的初步估计是基于 OpenAI 公司的 GPT-3 模型,而如今最新模型 GPT-4 已经推出,所以其运行成本可能会更高。

  Patel 和他的同事 Afzal Ahmad 称,虽然训练 ChatGPT 的大型语言模型可能要花费上亿美元,但当这些工具合理部署之后,其运营费可能远远超过了训练成本。

  例如,初创公司 Latitude 开发了一款基于用户输入信息生成故事情节的人工智能地下城游戏。该公司首席执行官 Nick Walton 表示,在 2021 年,运行 AI 模型的费用以及向亚马逊 AWS 服务器所付的费用,加起来每月就要花费 20 万美元。

  Walton 开玩笑道, 我们每个月在自己员工和人工智能上花的钱差不多 。

  据 the Information 率先报道,两位知情人士透露,微软正在开发一款名为 Athena 的人工智能芯片,旨在降低运行生成式人工智能模型的成本。

  该芯片项目于 2019 年启动,这一年也恰好是微软对 OpenAI 进行首次投资的时间,当时的注资要求 OpenAI 只在微软的 Azure 云服务器上运行其模型。

  Athena 项目背后的原因有二:其一,微软高管意识到,他们在自主研发芯片方面落后于谷歌和亚马逊;其二,微软正在寻找更便宜的替代品,该公司目前的人工智能模型是在英伟达的图形处理单元芯片上运行的。

  目前来看,英伟达是这个领域的最大玩家,单片价值 1 万美元的 A100 芯片占据了数据中心 GPU 市场 90% 以上的份额,主要用于训练和运行 AI。英伟达还已发布一款更先进的芯片—— H100 ,据称该芯片的训练性能应该是其之前 AI 训练芯片的 9 倍,上月有报道称,OpenAI 已使用 H100 芯片对其人工智能模型进行训练和运行。

  据悉,微软有 300 多名员工正在研发这款芯片。知情人士透露,该芯片最早可能于明年发布,供微软和 OpenAI 内部使用。