支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Google Cloud Next 2025:AI 如何重塑云计算的未来(万字长文)

发布日期:2025-04-14 12:00:23 浏览次数: 1609 作者:觉察流
推荐语

Google Cloud Next 2025 大会揭示了 AI 如何引领云计算新纪元。
curity-next25



核心内容:
1. Google 展示 AI 创新,重塑云计算未来
2. 新一代 AI 模型性能与效率的双重突破
3. 智能体生态系统和基础设施的全面升级

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家


 在 2025 年的 Google Cloud Next 大会上,Google 展示了一系列令人瞩目的 AI 创新,从低延迟的 Gemini 2.5 Flash 模型到突破性的音频生成工具 Chirp 3,再到企业级文本到音乐模型 Lyria,这些技术正在重新定义云计算的未来。与此同时,Google 还推出了强大的智能体生态系统和基础设施升级,包括 Ironwood TPU 和 AI Hypercomputer,进一步推动了 AI 在效率、性能和安全性上的突破。


 

大家好,我是肆〇柒,今天这篇,我们聊聊上周 Google Cloud Next 2025 大会都发了些啥东西。AI 正在重塑云计算的未来,而 Google Cloud 的这次大会真可谓信息量饱满。无论是新一代 AI 模型的发布,还是基础设施的全面升级,或是智能体生态的构建,都让人眼前一亮。我们一起看看。

新一代 AI 模型:性能与效率的双重突破

Google Cloud 在本次大会上推出了多款令人期待的新一代人工智能模型,进一步巩固了其在 AI 领域的领先地位。这些模型不仅在性能上实现了质的飞跃,还在效率和成本优化方面取得了显著突破。

Gemini 2.5 Pro:深度推理的巅峰之作

Gemini 2.5 Pro 是 Google 最新的旗舰模型,专为复杂推理和编码任务设计。它通过透明的逐步推理过程,为企业提供了更高的信任度和合规性。这种“thinking model”能够理解上下文并进行深度分析,从而在处理法律合同、医学记录等复杂文档时提取关键信息。

例如,Box 公司正在利用 Gemini 2.5 Pro 的高级推理能力,通过 Box AI Extract Agents 实现内容智能化。用户可以即时将非结构化数据转化为可操作的洞察,从而显著提升自动化效率。Moody’s 也在测试 Gemini 2.5 Pro,用于处理复杂的 PDF 文档,其初步结果显示,该模型在深度推理和大规模数据集处理方面具有巨大潜力。

Gemini 2.5 Pro 目前在竞技场中排名 No 1
引自:https://huggingface.co/spaces/lmarena-ai/chatbot-arena-leaderboard

Gemini 2.5 Flash:低延迟与高性价比的完美结合

Gemini 2.5 Flash 是一款专为低延迟和成本效率优化的模型,特别适合高吞吐量的场景,如客户服务和实时信息处理。它可以根据查询的复杂性自动调整处理时间(“thinking budget”),从而在速度、准确性和成本之间实现最佳平衡。

例如,Google 的生态伙伴 Palo Alto Networks 正在评估 Gemini 2.5 Flash 的推理能力,以提升其 AI 助手的性能。该模型在处理简单请求时能够快速响应,同时在复杂任务中保持高精度,这种灵活性使其成为高性价比应用的理想选择。

Imagen 3:图像生成与编辑的显著提升

Imagen 3 是 Google 最高质量的文本到图像模型,现在具有改进的图像生成和修复功能,能够重建图像中缺失或损坏的部分。最新的更新显著提高了对象移除的质量,提供了更自然和无缝的编辑体验。

Imagen 3 的编辑功能提供了一种强大且用户友好的方式来细化和定制任何图像。例如,用户可以快速移除照片中的不需要对象、瑕疵或干扰元素,从而获得更干净的视觉效果。这种能力为营销和媒体行业带来了新的创意可能性。


Chirp 3:音频生成与理解的重大更新

Chirp 3 是 Google 的突破性音频生成和理解模型,现在包括以下新功能:

  • • Instant Custom Voice:仅需 10 秒的音频输入即可生成逼真的定制声音。这使企业能够个性化呼叫中心、开发无障碍内容,并建立独特的品牌声音,同时保持一致的品牌身份。
  • • Transcription with Diarization:能够准确分离和识别多说话人录音中的各个说话者,显著提高了会议总结、播客分析和多方通话记录等应用中的转录清晰度和可用性。

Chirp 3 的 HD 声音功能提供超过 35 种语言的自然和逼真语音,具有八种说话者选项。这些功能使企业在客户服务和内容创作方面更加高效和个性化。

Lyria:文本到音乐的革命性模型

Lyria 是 Google 推出的首个企业级文本到音乐模型,能够将简单的文本提示转化为 30 秒的音乐片段。它生成的音乐具有高保真度,能够捕捉微妙的细节,并在多种音乐风格中提供丰富的细节。例如,企业可以使用 Lyria 为营销活动快速创建符合品牌风格的背景音乐,从而节省大量时间和成本。

Lyria 的应用场景非常广泛。它可以帮助企业在视频制作、播客和数字内容创作中快速找到合适的音乐。传统的版权音乐搜索过程既耗时又昂贵,而 Lyria 消除了这些障碍,允许企业在几分钟内生成定制音乐轨道,直接与内容的情绪、节奏和叙事对齐。这不仅加速了制作流程,还减少了许可成本。

Veo 2:视频生成与编辑的全面升级

Veo 2 是 Google 的高级视频生成模型,现在引入了一系列新的编辑功能,使其从一个生成工具转变为一个全面的视频创作和编辑平台。这些功能包括:

  • • Inpainting:实现干净、专业的编辑,无需手动修饰。可以移除视频中的不需要背景图像、标志或干扰元素,使它们在每一帧中平滑消失,看起来就像它们从未存在过。
  • • Outpainting:扩展现有视频的帧,将传统视频转换为适合网络和移动平台的优化格式。这有助于轻松适应各种屏幕尺寸和纵横比,例如将横向视频转换为适合社交媒体短片的纵向格式。
  • • Interpolation:通过定义视频序列的开始和结束,Veo 可以无缝生成连接帧,确保平滑过渡并保持视觉连贯性,从而创建出经过打磨和专业的最终产品。

这些功能让团队能够更快地迭代,制作更高质量的内容,并减少后期制作的时间和成本。例如,Goodby, Silverstein & Partners 使用 Veo 2 和 Imagen 3 将 Salvador Dalí 的超现实主义愿景转化为影片,这在过去几乎不可能实现。

智能体生态系统:让 AI 更加贴近人类

Google Cloud 在智能体领域的创新希望通过智能化的 AI 助手来提升企业效率和创新能力。

Google Agentspace

Google Agentspace 是一个强大的平台,它将企业搜索、对话式 AI、Gemini 和第三方智能体整合在一起,使员工能够快速找到和综合组织内的信息,并通过企业应用采取行动。这个平台为员工提供了一个无缝的入口,使他们能够利用智能体的力量来提高工作效率和决策质量。

1. Agentspace 利用 Google 的搜索技术,使员工能够在组织内无缝搜索信息。这不仅包括文本,还涵盖了视频、图像和音频等多种格式。这种多模态搜索能力确保员工能够在最短的时间内找到他们需要的精确信息。例如,医疗保健员工可以利用这一功能快速查找和综合大量的医疗研究数据,从而提高工作效率。

2. Agentspace 通过 Gemini 的多模态智能,使员工能够分析和总结信息。这意味着员工可以快速从大量数据中提取关键见解,并以易于理解的方式呈现出来。例如,员工可以使用 Agentspace 来总结复杂的医疗记录或研究论文,从而节省大量时间和精力。

3. Agentspace 还提供了与文档存储库和数据库系统的连接器,使员工能够跨越通常分散的数据源整合不同的信息。这种整合能力对于医疗保健组织尤其重要,因为它们通常需要处理大量的结构化和非结构化数据。

在安全性方面,Agentspace 以企业级的准备为核心,确保从安全和合规到数据隐私和法规遵循。Google 在开发 Agentspace 时,将这些要素作为核心原则,确保平台能够满足医疗保健等敏感行业的严格要求。

通过 Agentspace,员工不仅可以访问 Google 提供的智能体,还可以访问第三方智能体,甚至是组织 IT 部门自定义构建的智能体。这种灵活性和可扩展性使 Agentspace 成为一个强大的工具,能够满足不同组织的独特需求。

例如,Google 的生态伙伴 Highmark Health 已经在其内部广泛采用了基于 Agentspace 的生成式 AI 工具,超过 14,000 名员工定期使用这些工具,处理了超过一百万次的提示。这种广泛的采用不仅提高了员工的效率,还改善了患者和成员的体验。Highmark Health 还计划通过智能体直接与患者和成员互动,提供指导,并实现高质量服务的“充裕时代”。

从 Google 提供的案例来看,Google Agentspace 为医疗保健组织提供了一个全面的解决方案,使它们能够利用 AI 的力量来优化工作流程、提高效率,并最终改善患者护理。

Agent Development Kit (ADK)

ADK 是一个开源框架,简化复杂多智能体系统的构建。开发者仅需不到 100 行代码即可构建一个 AI 智能体。例如,开发者可以使用 ADK 快速创建一个智能体来自动化日常任务,如数据处理和报告生成。ADK 还支持 Model Context Protocol (MCP),方便地接入各种工具,并能无缝连接由 Apigee 管理的 API。「此处,关于 MCP 有一篇小综述的论文可以阅读(点击?)MCP:AI 与工具交互的“瑞士军刀”,还有一篇关于 MCP 安全隐患的文章,也可以阅读(点击?)MCP协议的安全隐患:AI智能体的“隐形炸弹” 」

 


Agent Development Kit (ADK) 是 Google 推出的一个灵活且模块化的开源框架,专为开发和部署 AI 智能体而设计。ADK 与 Google 的生态系统和 Gemini 模型紧密集成,目的是帮助开发者快速构建简单智能体,同时为复杂智能体架构和编排提供所需的控制和结构。

ADK 的核心功能包括以下几个方面:

1. 灵活的编排

ADK 提供了多种工作流代理(如 SequentialParallel 和 Loop),用于定义可预测的管道,或者利用 LLM 驱动的动态路由(如 LlmAgent 转移)实现自适应行为。这种灵活性使得开发者可以根据不同的任务需求设计智能体的工作流。

例如,开发者可以创建一个智能体,用于自动化数据处理和报告生成。智能体可以先从多个数据源收集信息(Parallel),然后按顺序处理数据(Sequential),最后生成报告并发送给相关人员。

2. 多智能体架构

ADK 支持构建模块化和可扩展的应用程序,通过将多个专业智能体组合成一个层次结构,实现复杂的协调和委托。例如,一个企业可以创建一个智能体生态系统,其中包含以下智能体:

  • • 数据收集智能体:负责从不同来源收集数据。
  • • 数据分析智能体:对收集到的数据进行分析并提取关键洞察。
  • • 报告生成智能体:根据分析结果生成报告并发送给相关人员。

这种模块化设计不仅提高了系统的可维护性,还使得智能体之间的协作更加高效。

3. 丰富的工具生态系统

ADK 提供了多种预建工具(如搜索、代码执行等),开发者还可以创建自定义函数或集成第三方库(如 LangChain 和 CrewAI)。此外,智能体可以使用其他智能体作为工具,从而扩展其功能。

例如,一个智能体可以使用搜索工具从互联网获取实时信息,然后使用代码执行工具运行复杂的计算,最后将结果整合到一个报告中。

4. 部署就绪

ADK 支持将智能体容器化并部署到任何环境中,无论是本地运行、通过 Vertex AI Agent Engine 扩展,还是集成到自定义基础设施中(如 Cloud Run 或 Docker)。这种灵活性使得智能体可以轻松适应不同的部署场景。

例如,企业可以将智能体部署到本地服务器,以满足数据隐私和合规性要求,也可以将其部署到云端以利用 Google Cloud 的强大计算能力。

5. 内置评估

ADK 提供了系统化的智能体性能评估功能,通过对比预定义测试用例的最终响应质量和逐步执行轨迹,全面评估智能体的表现。这种评估机制帮助开发者不断优化智能体的行为和性能。

例如,开发者可以使用 ADK 的评估工具测试一个智能体在处理复杂查询时的表现,并根据评估结果调整智能体的逻辑和参数。

6. 构建责任智能体

ADK 强调构建强大且可信的智能体,通过实施责任 AI 模式和最佳实践,确保智能体的设计符合伦理和安全标准。例如,智能体可以内置安全过滤器,防止生成有害内容,并遵循 Google 的责任 AI 原则。

快速入门

要开始使用 ADK,开发者只需运行以下命令安装相关库:

pip install google-adk

安装完成后,开发者可以参考 ADK 的快速入门教程、示例智能体和 API 文档,快速构建和部署智能体。

示例:构建一个简单的智能体

以下是一个简单的示例,展示如何使用 ADK 构建一个智能体来自动化任务:

from google_adk import Agent, tools

# 创建一个智能体
agent = Agent(
    name="DataProcessor",
    description="An agent that processes and analyzes data.",
    tools=[tools.Search(), tools.CodeExecution()],
)

# 定义智能体的行为
defprocess_data(query):
    # 使用搜索工具获取数据
    data = agent.use_tool("Search", query=query)
    # 使用代码执行工具分析数据
    analysis = agent.use_tool("CodeExecution", code=f"analyze_data({data})")
    return analysis

# 运行智能体
result = agent.run(process_data, query="最新市场趋势")
print(result)

ADK 的架构设计使得开发者可以轻松构建和部署复杂的智能体系统,同时确保系统的灵活性和可扩展性。

通过 ADK,开发者可以快速构建智能体,利用 Google 的 AI 模型和工具解决实际业务问题,从而显著提升开发效率和智能体的性能。ADK 的开源特性和灵活架构使其成为企业构建智能体生态的理想选择。

 

Agent2Agent (A2A) 协议

 

随着企业对 AI 智能体的依赖不断增加,从简单的日常任务到复杂的供应链规划,智能体需要在不同的数据系统和应用之间无缝协作。

然而,目前大多数智能体被限制在单一的框架或平台上,这种孤立性限制了它们的潜力。A2A 协议的推出,目的是打破这些壁垒,使智能体能够跨平台、跨框架进行安全通信和协作。

1. A2A 协议的设计原则

A2A 协议的设计遵循了五个核心原则,确保其灵活性、安全性和实用性:

  1. 1. 拥抱智能体能力:A2A 允许智能体在其自然的、非结构化的方式下进行协作,即使它们不共享内存、工具和上下文。这种设计使得智能体能够在多智能体场景中真正协作,而不仅仅是一个“工具”。
  2. 2. 基于现有标准:A2A 建立在现有的流行标准之上,如 HTTP、SSE 和 JSON-RPC,使其更容易与企业日常使用的现有 IT 堆栈集成。
  3. 3. 默认安全:A2A 支持企业级的身份验证和授权,与 OpenAPI 的身份验证方案保持一致,确保通信的安全性。
  4. 4. 支持长期任务:A2A 被设计为灵活的,可以处理从快速任务到需要数小时甚至数天的深入研究的各种场景。在整个过程中,A2A 可以提供实时反馈、通知和状态更新。
  5. 5. 模态不可知:A2A 支持多种模态,包括音频和视频流,而不仅仅局限于文本。

2. A2A 协议的工作原理

A2A 通过定义智能体之间的通信标准,使得“客户端”智能体能够与“远程”智能体进行交互。以下是其关键功能:

  • • 能力发现:智能体可以使用 JSON 格式的“智能体卡片”来宣传其能力,使客户端智能体能够识别最适合执行任务的智能体,并通过 A2A 与远程智能体通信。
  • • 任务管理:客户端和远程智能体之间的通信以任务完成为导向。任务对象由协议定义,并具有生命周期,可以立即完成或在长时间运行的任务中保持同步。
  • • 协作:智能体可以相互发送消息以传递上下文、回复、工件或用户指令。
  • • 用户体验协商:每条消息都包含“部分”,即一个完整的内容片段,如生成的图像。每个部分都有指定的内容类型,允许客户端和远程智能体协商所需的正确格式,并明确包括用户界面能力的协商。

3. A2A 的未来与社区贡献

A2A 协议不仅是一个技术突破,更是对智能体协作未来的一次大胆构想。Google Cloud 承诺与合作伙伴和社区一起开放地构建该协议,并计划在今年晚些时候推出生产就绪版本。

A2A 协议的发布解决了不同智能体之间的互操作性问题。基于 HTTP 和 JSON 等标准 Web 技术,这一开放协议得到了超过 50 家技术合作伙伴的支持。例如,Salesforce 和 ServiceNow 等公司可以利用 A2A 协议使他们的智能体在不同平台上协同工作,从而构建更复杂和集成的 AI 驱动工作流程。

关于 A2A 我已在其发布当天写过一篇与 ANP 的对比文章。更详细内容请见(点击?):重磅!谷歌 A2A vs ANP:智能体通信的桥梁还是全新网络规则?

AI 基础设施:性能与能效的飞跃

为了支撑日益增长的 AI 计算需求,Google Cloud 在基础设施层面也进行了重大升级。

 

Ironwood TPU:性能与能效的飞跃

Ironwood 是 Google Cloud 推出的第七代 TPU(Tensor Processing Unit),专为 AI 推理工作负载设计。它在性能和能效方面都取得了巨大的突破,为大规模 AI 模型的部署提供了强大的支持。

与谷歌首款外部云 TPU v2 相比,FP8 总峰值浮点运算性能的提升

性能提升

Ironwood 的性能相比前一代 Trillium 提升了 5 倍,每个芯片的峰值计算能力达到 4614 万亿次浮点运算(TFLOPs)。一个包含 9216 个芯片的 Pod 总计算能力高达 42.5 百万亿次浮点运算(exaflops),这使得它成为目前市场上最强大的 AI 硬件之一。这种性能提升对于处理复杂的推理任务至关重要,例如在自然语言处理和图像识别中,Ironwood 能够在几秒钟内完成传统硬件需要数分钟才能完成的工作。

Cloud TPU 产品 3D 环面版本的技术规格对比,包括最新一代 Ironwood。v4 和 v5p 模拟支持 FP8 峰值 TFlops,但 Ironwood 原生支持

高带宽内存(HBM)

Ironwood 每个芯片配备了 192GB 的高带宽内存(HBM),是上一代 Trillium 的 6 倍。这种大容量的 HBM 使得 Ironwood 能够更高效地处理大规模数据集,特别是在需要快速读取和写入数据的场景中,例如实时数据分析和推荐系统。

能效优化

Ironwood 在能效方面也取得了显著进步,相比 Trillium 提升了 2 倍。这种能效优化不仅降低了运行成本,还使得 Ironwood 成为数据中心的理想选择,特别是在需要大规模部署的场景中。

相较于第一代 Cloud TPU v2,谷歌 TPU 功率效率的提升。以每瓦热设计功耗每芯片封装提供的峰值 FP8 浮点运算次数衡量

应用场景

Ironwood 的强大性能和能效使其适用于多种 AI 工作负载,包括但不限于:

  • • 自然语言处理:在复杂的推理任务中,Ironwood 能够快速处理和生成高质量的文本。
  • • 图像识别:Ironwood 可以在几秒钟内完成高精度的图像分类和识别任务。
  • • 推荐系统:Ironwood 能够实时处理用户数据,提供个性化的推荐。

AI Hypercomputer:简化 AI 部署的超级计算系统

AI Hypercomputer 是 Google Cloud 推出的一个革命性的超级计算系统,为了简化 AI 部署,提高性能并优化成本。它整合了硬件、软件和消费模式,为 AI 工作负载提供了全面的支持。

硬件优化

AI Hypercomputer 提供了多种性能优化的硬件选项,以满足不同 AI 工作负载的需求:

  • • Ironwood TPU:如前所述,Ironwood 是 AI Hypercomputer 的核心硬件之一,提供了无与伦比的计算能力和能效。
  • • A4 和 A4X VMs:Google Cloud 是首家提供 NVIDIA B200 和 GB200 GPU 的超大规模云服务商。A4 VMs(基于 NVIDIA B200)已经正式发布,而 A4X VMs(基于 NVIDIA GB200)也已进入预览阶段。
  • • Hyperdisk Exapools:提供了最高性能和容量的块存储,支持单个 AI 集群中配置多达艾字节(exabytes)的存储容量。
  • • Rapid Storage:新的 Cloud Storage 区域存储桶,使主存储能够与 TPUs 或 GPUs 共置,从而实现最优的资源利用。

软件能力

AI Hypercomputer 的软件层通过与流行的机器学习框架和库(如 PyTorch、JAX、vLLM 和 Keras)的深度集成,帮助 AI 实践者和工程师更快地推进项目。

  • • Pathways on Cloud:由 Google DeepMind 开发的分布式运行时,支持动态扩展的推理工作负载和弹性训练。它允许在不同的计算单元上独立扩展推理工作的预填充和解码阶段,从而实现超低延迟和高吞吐量。
  • • GKE Inference Gateway 和 Inference Quickstart:这些功能通过智能扩展和负载均衡技术,帮助处理请求调度和路由,显著降低服务成本和尾部延迟,同时提高吞吐量。

消费模式

AI Hypercomputer 提供灵活的消费模式,以满足不同客户的需求:

  • • Dynamic Workload Scheduler (DWS):一个资源管理和作业调度平台,帮助用户轻松且经济高效地访问加速器。DWS 现在支持更多的加速器,包括 TPU v5e、Trillium、A3 Ultra(NVIDIA H200)和 A4(NVIDIA B200)VMs。

应用场景

AI Hypercomputer 适用于多种 AI 工作负载,包括但不限于:

  • • 大规模训练:通过弹性训练功能,AI Hypercomputer 能够自动扩展和恢复训练工作负载,确保训练过程的连续性。
  • • 推理服务:通过智能扩展和负载均衡,AI Hypercomputer 能够高效地处理推理请求,提供低延迟和高吞吐量的服务。
  • • 多模态 AI:支持视频、图像、语音和音乐生成模型,AI Hypercomputer 为创意工作流程提供了全面的支持

 

安全领域的 AI 应用

AI 在安全领域的应用标志着向更自动化、更智能的威胁检测、分析和响应的转变。

 

Google Unified Security

企业基础设施的复杂性和规模正在不断扩大,攻击面也随之增加,使得安全团队的工作变得异常困难。传统的安全工具往往是孤立的,缺乏上下文关联,导致组织在面对日益增长的威胁时反应迟缓。Google Unified Security 的推出正是为了解决这一挑战。

统一的安全数据底座

Google Unified Security 通过创建一个单一的、可扩展的、可搜索的安全数据底座,覆盖整个攻击面。这个底座整合了来自网络、终端、云和应用的数据,提供了全面的可见性。例如,Chrome Enterprise 的浏览器遥测数据和资产上下文被集成到 Google Security Operations 中,用于威胁检测和补救行动。这种整合使得安全团队能够快速识别和响应威胁。


威胁情报与安全验证的结合

Google Threat Intelligence 与安全验证的结合,使企业能够主动了解暴露风险,并测试安全控制措施是否能抵御最新的威胁活动。例如,Security Command Center 中的云风险和暴露数据被丰富了 Google Threat Intelligence,从而更有效地进行威胁狩猎和事件分类。

AI 驱动的安全运营

Gemini AI 的融入使得 Google Unified Security 的每个环节都更加高效。例如,Security Command Center 的 AI Protection 功能可以帮助发现 AI 库存、保护 AI 模型和数据,并检测和响应针对 AI 系统的威胁。Model Armor 作为 AI Protection 的一部分,允许对多个云中的模型进行内容安全和安全控制,直接与 Vertex AI 集成,无需更改应用程序。

安全智能体

智能体 AI 正在彻底改变安全运营的执行方式。Google 的愿景是让智能体与人类分析师并肩工作,接管例行任务,增强决策能力,让分析师专注于复杂问题。

告警分类智能体

在 Google Security Operations 中,新的告警分类智能体能够动态调查每个告警的上下文,收集相关信息,并对告警做出判断。预计在 2025 年第二季度向部分客户开放预览,这一智能体将大幅减轻一级和二级分析师的日常工作负担。例如,分析师每天需要处理数百个告警,而智能体可以自动完成这些任务,显著提高效率。

恶意软件分析智能体

在 Google Threat Intelligence 中,恶意软件分析智能体能够分析代码是否安全或有害。它不仅可以识别潜在的恶意代码,还能创建和执行脚本以去除混淆。最终,智能体会总结其工作并提供最终判断。这一功能预计在 2025 年第二季度向部分客户开放预览。

智能体的深远影响

这些智能体的引入不仅加速了威胁检测和响应,还通过完整的可见性和简化的工作流程,帮助安全团队减少重复性工作,建立真正的网络弹性,并推动战略计划的转型。

实际应用场景

例如,Unilever 的安全团队利用 Google Unified Security 的智能体功能,将每天处理的告警数量减少了 40%,从而将更多资源集中在高风险事件上。Accenture Security 也通过智能体实现了从被动防御到主动狩猎的转变,显著提升了客户的安全态势。


Google Unified Security 和安全智能体的推出,标志着 Google 在企业安全领域的重大突破。通过整合威胁情报、安全验证和 AI 驱动的智能体,Google 正在帮助组织构建更强大、更智能的安全防护体系。这些创新不仅提升了安全团队的效率,还为企业在复杂的威胁环境中提供了更全面的保护。

 

总结

看完 20 多篇 Google Cloud Next 2025 的相关 Blog 文章,我感受到大会所展示的AI技术革新是令人振奋的。Google 果然还是那个玉树临风的 AI 大厂,发布的东西实在是太多了。Gemini 2.5 Pro 位居竞技场榜单 No1,Gemini 2.5 Flash的低延迟与高性价比,到Imagen 3在图像生成与编辑上的突破,再到Chirp 3、Lyria、Veo 2等模型在音频、音乐、视频领域的创新应用,每一项都让人目不暇接。

智能体生态系统的构建也让我印象深刻。Google Agentspace和ADK的推出,让AI助手不再只是单一的工具,而是能够整合企业内部各种信息和智能体的平台,极大地提升了员工的工作效率。A2A协议的发布更是打破了智能体之间的壁垒,让它们可以在不同的平台和框架之间无缝协作,这为构建更复杂和集成的AI驱动工作流程提供了可能。 

基础设施方面的升级同样关键。Ironwood TPU的性能和能效提升,以及AI Hypercomputer的推出,为大规模AI模型的部署提供了强大的支持。这些硬件和软件的优化,不仅提高了性能,还降低了成本,让AI技术更加普及。  

在安全领域,Google Unified Security和安全智能体的应用,标志着威胁检测和响应进入了一个新的自动化和智能化阶段。AI 正在向具体的技术运营场景落地,这不仅提高了安全性,也让企业能够更快速地应对潜在威胁。 

综上,Google Cloud Next 2025 大会充分展示了 Google Cloud 在人工智能和云计算领域的创新实力和未来愿景。通过发布新一代 AI 模型、强大的 AI 智能体平台、性能卓越的基础设施以及全面的安全解决方案,Google Cloud 正在积极构建一个以 AI 为中心、赋能企业数字化转型的未来。本次大会的各项发布和更新,彰显了 Google Cloud 将在未来的云计算市场中继续保持其强大的竞争力与领先地位。

 

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询