谷歌Google CloudAI智能体TPUGemini
1850亿美元天价支出、75%代码由AI生成!谷歌全面转向智能体工作流
1850亿美元天价支出、75%代码由AI生成!谷歌正式宣告:全面转向智能体工作流
整理: 华卫 | 发布时间: 2026-04-26
核心要点
- 谷歌2026年投入1750-1850亿美元用于AI基础设施(2022年仅310亿美元)
- 近75%新增代码由AI生成并由人类工程师审核通过
- 推出Gemini Enterprise Agent Platform,支持200+种模型
- 发布第八代TPU(TPU 8t训练型 + TPU 8i推理型)
- 设立7.5亿美元基金助力合作伙伴开发生成式AI产品
75%新代码由AI生成
谷歌CEO Sundar Pichai宣布,谷歌近75%的新增代码由AI生成并由人类工程师审核通过。
代码生成比例演进:
| 时间 | AI生成代码比例 |
|---|---|
| 2024年10月 | 25% |
| 2025年秋季 | 50% |
| 2026年4月 | 75% |
Gemini在谷歌内部的应用:
- 工程师使用Gemini模型生成代码
- 部分员工被设定AI使用目标,纳入绩效考核
- 近几个月部分Google DeepMind员工被允许使用Anthropic的Claude Code
智能体工作流转型: "近期,一项由智能体与工程师协作完成的高复杂度代码迁移任务,完成速度比一年前仅由工程师人工操作快了六倍。" —— Sundar Pichai
Gemini Enterprise Agent Platform
谷歌推出面向开发者的Gemini Enterprise Agent Platform,旨在为数据、人员与业务目标之间搭建安全、全栈式的"连接纽带"。
平台特性:
- 从Vertex AI开发者平台升级扩展
- 提供超过200种模型,包括:
- Gemini 3.1 Pro
- Nano Banana 2
- Gemma开源模型
- Anthropic的Opus 4.7
- 整合代理集成、安全、DevOps、编排等功能
用户增长:付费月活跃用户数环比增长达40%。
第八代TPU:专为智能体时代设计
TPU 8t(训练型)
- 专为高速模型训练设计
- 单个集群可扩展至9600块TPU
- 配备2PB共享高带宽内存
- 算力达到121 FP4 EFlops(是上一代Ironwood的三倍)
- 支持扩展至百万颗芯片
TPU 8i(推理型)
- 专为"近零延迟"设计
- 单个集群1152颗芯片(上一代仅256颗)
- 每颗芯片片上SRAM容量384MB(三倍提升)
- 加快长上下文窗口模型的运行速度
创新点:首款完全采用自研Axion ARM架构CPU主控的产品
巨额AI投入的变现路径
谷歌宣布设立7.5亿美元基金,助力其拥有12万名成员的谷歌云合作伙伴生态体系开发生成式AI产品。
重点合作伙伴:
- 埃森哲
- 德勤
- 麦肯锡
客户案例:
| 客户 | 产品/服务 |
|---|---|
| 花旗 | 发布"Citi Sky" AI驱动财富管理助手 |
| Thinking Machines Lab | 签署数十亿美元协议,扩大使用谷歌云AI基础设施 |
行业对比:科技巨头的AI代码生成
| 公司 | AI代码生成比例 | 目标 |
|---|---|---|
| 谷歌 | 75% | - |
| 微软 | 20-30% | 5年内95% |
| Meta | 55-65% | 2026上半年75% |
| Snap | 65% | - |
**微软CTO Kevin Scott预测:**五年内95%的代码都将由AI生成。
安全与治理
Pichai强调:"代码的每一行都经过工程师审核和批准"。
谷歌还将AI用于网络安全运营的部分自动化工作:
- 安全运营中心的智能体每月自动对数万份非结构化威胁报告进行分类
- 将威胁处置时间缩短了90%以上
战略意义
谷歌此次发布标志着:
- 从AI辅助转向AI主导:75%代码由AI生成
- 从单点工具转向智能体平台:Gemini Enterprise Agent Platform
- 从通用算力转向专用基础设施:TPU 8t/8i针对智能体优化
- 从内部使用转向生态输出:7.5亿美元合作伙伴基金
行业讨论的焦点已经从"我们能否打造一个智能体?"转向了"我们该如何管理成千上万个智能体?"
原文来源:InfoQ | 整理时间:2026-04-27