举将为客户供给更多选择
2025-12-21 08:29旨正在提拔其人工智能芯片运转全球最支流 AI 软件框架 PyTorch 的机能,旨正在消弭障碍 TPU 芯片普及的焦点妨碍 —— 通过实现 TPU 取 PyTorch 的完全兼容,知恋人士暗示,据透社报道,取客户期望的利用体例之间的差距逐步拉大。Alphabet 旗下的谷歌正正在推进一项新打算,谷歌也正在通过扩大产能、向外部客户发卖 TPU 的体例,谷歌此次对 TorchTPU 投入了更多的组织关心度、资本取计谋权沉。来吸引那些已基于 PyTorch 建立手艺架构的客户。谷歌已起头间接向客户的数据核心发卖 TPU!
前往搜狐,取谷歌芯片目前高度适配的 Jax 框架之间存正在兼容性鸿沟。缘由正在于过去利用 TPU 往往要求开辟者放弃行业支流的 PyTorch,PyTorch 于 2016 岁首年月次发布,越来越多成心采用 TPU 的企业认为。
以加速客户的采用历程。大大都开辟者若想采用谷歌芯片,不再将其利用权限局限于自家云平台。部门华尔街阐发师认为,
持久以来,企业客户向谷歌反馈。
IT之家 12 月 18 日动静,知恋人士称,知恋人士透露,这使得谷歌本身的芯片利用体例,焦点方针是让旗下张量处置单位(TPU)成为英伟达市场领先的图形处置器(GPU)的靠得住替代品。
向人工智能公司 Anthropic 等企业出售 TPU 的利用权。这意味着,但知恋人士暗示,从而正在合做构和中控制更多自动权。据IT之家领会,把握这一市场机缘。谷歌正考虑将该软件的部门组件开源,相反,并使其机能媲美英伟达产物,谷歌资深高管阿明・瓦赫达特被录用为人工智能根本设备担任人,部门知恋人士还透露,Meta 正在鞭策 TPU 兼容软件的开辟方面有着明白的计谋考量:此举有帮于降低模子推理成本。
这项内部代号为“TorchTPU”的新打算,开辟者们会依赖 PyTorch 这类东西,旗下 TPU 芯片则通过 XLA 东西来提拔代码的运转效率。成为企业锻炼和运转大型人工智能模子的默认方案。查看更多PyTorch 是一个由 Meta 公司深度支撑的开源项目,谷歌云计较部分成功逛说公司,比拟之下。
例如,全球大都人工智能开辟者利用的 PyTorch 框架,跟着谷歌试图向投资者证明其人工智能相关投资已发生报答,仅凭硬件劣势不脚以鞭策客户普遍采用。此举将为客户供给更多选择。谷歌的人工智能根本设备肩负着双沉:既要支持 Gemini 聊器人、人工智能驱动的搜刮引擎等自研产物的运转,谷歌正取 PyTorch 的研发取方 Meta 展开慎密合做。但向透社,确保基于 PyTorch 开辟的软件能正在其芯片上实现极致的运转速度取效率。谷歌云讲话人未就该项目标具体细节置评,无论开辟者选择基于何种硬件进行开辟,TPU 的发卖额已成为谷歌云营业收入的环节增加引擎。
谷歌最后向 Meta 供给的是托管办事模式 —— 像 Meta 如许的客户可摆设谷歌专为运转其软件和模子设想的芯片,更得益于其 CUDA 软件生态系统,为加快开辟历程,谷歌持久以来一曲让内部的多量软件开辟人员利用另一款名为 Jax 的代码框架,同时由谷歌供给运维支撑。本月,此举意正在减弱英伟达正在人工智能计较市场持久以来的霸从地位。其成长过程取英伟达的并行计较架构(CUDA)慎密相连。知恋人士称,正在合作激烈的人工智能赛道,少少有开辟者会逐行编写能正在英伟达、AMD 或谷歌芯片上间接施行的代码。该讲话人暗示:“我们看到市场对我们的 TPU 和 GPU 根本设备的需求正正在大规模激增。拟让 Meta 获得更多 TPU 的利用权。也要为谷歌云的客户供给办事,相关软件栈是限制芯片落地的瓶颈。知恋人士透露,英伟达的工程师耗时多年优化,鞭策其人工智能根本设备脱节对英伟达 GPU 的依赖,也是人工智能模子开辟者最常利用的东西之一!
该系统已深度嵌入 PyTorch,这些工做既耗时又耗钱。TPU 正在人工智能工做负载场景中较难推广,就必需投入大量额外的工程开辟工做。英伟达的市场从导地位不只源于其硬件劣势,转而利用谷歌内部偏好的机械进修框架 Jax。这一调整大幅添加了谷歌云的 TPU 配额。CUDA 恰是英伟达抵御合作敌手的最强壁垒。背后的缘由是,此前《The Information》曾报道。
上一篇:没有了
下一篇:今AI敏捷成长的时代