Facebook 掌门人马克·扎克伯格正在重新调整 Meta 的前进方向,积极构建通用人工智能,并准备在年底前使用至少 35万块或更多的 Nvidia H100 GPU,以实现这一雄心。
另一个AI巨头OpenAI已经表示将筹集数十亿美元的资金来建立芯片工厂网络,以提供足够的人工智能加速器来满足自己的运营需求。
因为Facebook 帝国将吸走每年生产 100 万个 Nvidia GPU 中的三分之一,所以开发 ChatGPT 的这家公司将建立更多工厂来生产图形处理器。
马克伯格证实,其团队研发人员目前正在训练他们最新的内容生成大型语言模型 Llama 3,并且计划公开发布,即开源。
在扎克伯格的愿景下,Meta 的基础人工智能研究和生成式人工智能团队将更紧密地合作,开发实现通用人工智能(AGI)所需的核心能力。
他说:“非常明显的是,下一代服务需要构建全面的通用智能,构建最好的人工智能助手、创作者人工智能、企业人工智能,以及从推理到规划、编码、记忆和其他认知能力等各个领域,更的多需求... “
扎克伯格是最近参与构建 AGI 竞赛的科技公司CEO,而AGI 是一种可以在许多认知任务中超越人类的理论与技术。
而如今随着训练日益强大的语言模型,使AGI不再是一个白日梦,而扎克伯格表示,Meta 打算为这项任务拿下 350,000 个 H100。
这还不是全部:Meta 将使用其它类型的芯片来实现相当于使用各种 GPU 的 60万个 H100 的总计算能力。
而且,小马同志也正在积极准备开发自己的人工智能芯片。与其他一些追求 AGI 的企业不同,Meta 将完全分享其努力,发布开源代码和基础设施,誓言将其模型供全球的开发者使用。
本文为 @ 场长 创作并授权 21CTO 发布,未经许可,请勿转载。
内容授权事宜请您联系 webmaster@21cto.com或关注 21CTO 公众号。
该文观点仅代表作者本人,21CTO 平台仅提供信息存储空间服务。