Google AI Agent 启动技术指南 (Thomas Kurian) (z-library.sk, 1lib.sk, z-lib.sk)
Author: Thomas Kurian
AI
No Description
📄 File Format:
PDF
💾 File Size:
4.7 MB
8
Views
0
Downloads
0.00
Total Donations
📄 Text Preview (First 20 pages)
ℹ️
Registered users can read the full content for free
Register as a Gaohf Library member to read the complete e-book online for free and enjoy a better reading experience.
📄 Page
1
启动技 术指南AI代理
📄 Page
2
引言 01AI代理的核心概念 02Google Cloud代理生态概览 04每个代 理的关键组件 09基础在代理系统中的作用 17关键要点 23如何构建AI代理 25构建AI代理的完整工具包27分步指南:定义LLM代理40使用Google Agentspace管理和扩展您的代理团队43构建代理的其他选项45关键要点46确保AI代理可靠且负责任 48AgentOps:面向生产环境的代理框架50使 用AgentOps构建负责任且安全的AI代理54关键要点56更多来自Google完整AI栈的内容 58结论 59资源 60 目录
📄 Page
3
人工智能代理的发展代表了软件工程范式的转变,使初创企业 能够自动化复杂的工作流程,创造新颖的用户体验,并解决以 往在技术上不可行的商业问题。 但从一个有前景的原型过渡到可投入生产的代理,意味着要应 对一系列新的挑战。如何管理它们的非确定性行为?如何验证 它们复杂的推理路径?更重要的是,你该从哪里开始? 本技术指南将帮助解答此类问题。它提供了一套以运维为导向 的系统性路线图,助力初创企业与开发者加速拥抱代理系统的 潜力。 您将学习代理系统的基础概念,从其核心架构组件到确保在生 产环境中可靠且负责任运行的原则。同时,您还将了解一系列 工具,这些工具可提升在Google Cloud 上构建和使用代理的 效率,包括使用代理开发工具包(ADK)进行代码优先开发、 通过代理启动包实现运维自动化,以及使用Google Agentspace 实现无代码代理创建。 本指南的重点 代理AI生态系统提供了许多工具、库和方法来构建认知 架构。谷歌有开源框架如Genkit和Google Cloud的对 话式AI产品,还有流行的开源库如LangChain和 CrewAI。 引言 无论您是在验证一个想法、构建MVP,还是支持生产 中的产品,本指南都将帮助您贯穿项目的各个阶段。 如何使用本指南 刚接触AI代理? 从第1节开始学习核心概念。 准备好构建了吗? 跳转到 第2节 使用ADK创建您的第一个代理。 代理已构建? 深入 第3节 以使其安全、稳定且可扩展。 需要额外支持? 使用Gemini Kit 加速原型设计,并申请Google for Startups Cloud 课程,以获得专家指导和高达 350,000 美元 的云学分。 本指南主要关注ADK,分享使您能够在Google Cloud 上 构建稳健、可扩展代理的概念和架构模式,同时保留集成其 他首选工具和库的能力。 1
📄 Page
4
第1节AI代理 的核心概念
📄 Page
5
第2节 第3节 3 第1节:AI智能体的核心概念 智能体AI领域正在迅速发展。本节提供关于AI智 能体的基础知识,解释其核心概念、目的和运行机 制,并详细介绍Google Cloud中可用的相关工具 和服务。 本播客使用NotebookLM创建,提示为:“作为播客主持人, 为‘创业技术指南:AI智能体’制作一档对话式且具有教育 意义的播客,目标受众为创业创始人和技术开发者。播客必 须涵盖使用AI智能体的三条主要路径(构建、使用、合作), 详细说明Agent Development Kit(ADK)和预构建的 Gemini智能体等工具。” “随后应解释智能体的核心组件,包括模型、工具、编排和 运行时环境。同时,介绍如何通过检索增强生成(RAG)进 行基础对齐以及利用多模态技术来确保信任与能力。最后总 结关键要点,并明确引导听众访问Google的资源。” 更喜欢音频?收听使用NotebookLM创建的本节播客 版本。
📄 Page
6
第2节 第3节 4 第1节:AI代理的核心概念 与MCP和A2A协议的互操作性 构建您自 己的代理 使用Google Cloud代 理 引入合作伙伴 代理 Google Cloud代理生态系统的 概述 1.1 1. MCP 和 A2A 协议在本指南的第 2节中进行了深入探讨。 构建生产级别的AI代理需要的不仅仅是选择一个大型语言 模型。一个完整的解决方案需要可扩展的基础设施、强大 的数据集成工具,以及能够适应多样化技术需求的架构模 式。 Google Cloud 支持代理系统的全面发育,无论您是构建自己 的代理、使用预构建的Google Cloud 代理,还是引入合作 伙伴代理。在模型上下文协议(MCP)和代理间协议( A2A)的支持下,这一通用框架旨在实现互操作性。因此, 无论其来源或架构如何,您的代理都可以在Google Cloud 生态系统中协同工作。1 代理工作流是下一个前沿。它不仅仅是提出问 题并获得答案,而是赋予人工智能一个复杂的 目标——例如“规划此次产品发布”或“解决 此次供应链中断”——并让它协调实现目标所 需的多步骤任务。这将从根本上改变生产力。 Thomas Kurian Google Cloud 首席执行官
📄 Page
7
第2节第3节第1节:AI代理的核心概念 构建您自己的代理 如果您希望构建专为处理特定任务而设计的自定义代理,那么 这条路适合您。在这里,您有两个选择:以代码优先的方式实 现最大程度的控制,或以应用程序优先的方式加速开发。 用于自定义、代码优先开发的代理开发工 具包 这种方法最适合需要对代理行为进行高度控制的开发者、技 术型初创公司和团队。Google Cloud 的代理开发工具包 (ADK)专为此类自定义方法而构建。 ADK使开发者能够构建、管理、评估和部署AI 驱动的代理。 它提供了一个强大且灵活的环境,用于创建既能处理对话任 务也能处理非对话任务的代理,能够应对复杂的任务和工作 流程。 使用ADK构建的代理可以轻松部署到Vertex AI Agent Engine,这是一个专为此目的设计的托管式可扩展环境。由 于这些代理是容器化的,因此也可以部署到任何支持容器的 环境,例如 Cloud Run 和 Google Kubernetes Engine (GKE)。 核心功能 • 编排逻辑:代理的核心推理过程,例如ReAct 框架(参 见第 1.2 节),使其能够规划并执行一系列工具调用和操作, 以完成复杂目标。 • 工具定义与注册:一个用于定义自定义函数和API 的接口, 使代理能够与数据、API 和外部系统进行交互。 • 上下文管理:一个为代理提供记忆能力的系统,使您能够利用代 理在多次交互中回忆用户偏好和对话历史,以提供连贯的体验。 • 评估与可观测性:一套内置工具,用于严格测验代理 的质量、调试代理的逐步推理过程,并监控其在生产环 境中的表现。 • 容器化:能够将代理打包为标准且可移植的容器,使其随时可 用用于在任何兼容的云环境中部署。 • 多代理组合:具备构建系统的能力,使多个专用代理能 够协作、分配任务并共同解决问题。 这对初创公司为何重要 • 自动化工作流,而不仅仅是对话:实施多步编排逻辑以解 决复杂的业务问题,为小团队创造实现规模扩张所需的运营 杠杆。 • 构建可防御的产品:将代理直接连接到您的专有API和内 部数据,打造具有真正竞争优势护城河的产品。 • 记住您的顾客,以提供真正个性化的体验:无缝整合短 期对话上下文与长期知识,使您的代理能够回忆过往互动, 建立真正的顾客关系。 • 自信发布:利用内置的评估与可观测性功能,严格测试和 调试您的代理,确保交付可靠、生产级别的产品。 • 专注于您的产品,而非基础设施:将您的代理打包为标准容器,通过标准的DevOps实践,实现更 快、更可靠的生产部署。
📄 Page
8
第2节第3节 6 第1节:AI代理的核心概念 Google Agentspace 以应用为中心 的开发 构建的第二个主要途径是通过Google Agentspace。与代码 优先的ADK不同,您可以使用Google Agentspace来协调您 的整个AI团队,并赋能非技术人员通过无代码设计器构建自 定义代理。 这种基于平台的方法非常适合管理多个代理,并在您成熟初 创企业的不断增长的SaaS应用程序群中扩展其使用。 核心能力 • 统一公司级搜索:连接并跨多个SaaS应用程序进 行搜索。 • 多模态数据合成:理解并综合文本、图像、图表和视频中 的信息,同时尊重数据权限。 • 预构建代理库:提供一系列用于深度研究或创意生 成等复杂任务的即用型代理。 • 无代码自定义代理构建器:包含代理设计器,允许非技术 人员通过提示驱动界面创建代理。 这对初创公司为何重要 • 打破数据孤岛:非开发团队可以构建和部署代理,以访 问并跨这些分散的数据源和应用程序进行操作。 • 自动化工作流:在不消耗稀缺工程资源的情况下创建跨 平台工作流,让您的工程团队专注于核心产品开发。 使用Google Cloud 代理 通过快速原型设计和轻松将AI集成到您现有的应用程序中,托 管代理使您能够专注于核心业务逻辑,而非管理基础设施。如 果您工程资源有限,它们也同样理想。 Gemini Code Assist Gemini Code Assist 是一款面向开发者的AI辅助工具。它集 成于软件开发生命周期的多个环节,通过IDE扩展、命令行界 面、GitHub集成以及多种Google Cloud服务提供协助。 核心功能 • IDE集成:在主流IDE(VS Code、JetBrains IDE、 Android Studio)中,它提供代码补全、按需函数生成和聊 天界面。它利用Gemini的大上下文窗口,为当前打开的代码 库提供相关响应。企业版可连接私有源代码仓库,以获得更 定制化的建议。 • 命令行界面:Gemini CLI 是一个开源AI代理,可将 Gemini功能直接带入终端,用于代码理解、文件操作和动态故障排除等任务。 • GitHub 集成:在GitHub 上,Gemini Code Assist 可自动审 查拉取请求,以识别错误和风格问题,并提出具体的代码更改建 议。 • 代理驱动开发:部署能够跨整个项目上下文执行复杂多 文件编辑的AI 代理。这些代理工作流结合了人工参与 (HITL)监督,并可与遵循MCP的生态系统工具集成。 • Google Cloud 服务集成:直接在 Firebase(应用错误分 析、性能洞察)、Colab Enterprise(Python 代码生成)、 BigQuery(自然语言转 SQL、查询 优化)、Cloud Run 和 Apigee 中提供 AI 辅助。 德米斯·哈萨比斯 Google De epMind 将Gemini 变成一个世界模型是开发一种新 型、更通用、更有用的AI——即通用AI助手 的关键一步。这是一种具有智能、能理解您 所处情境,并能在任何设备上为您规划和采 取行动的AI。
📄 Page
9
第2节第3节第1节:AI 代理的核心概念 这对初创公司为何重要 Gemini 代码助手充当倍增器。它能够处理软件开发生命周期中 的各种任务,从编写样板代码等常规任务到多文件重构等更复 杂的操作。 您可以将广泛的任务委托给Gemini Code Assist。以下是一些展示其 功能的示例。 • 用于自动化样板代码:生成一个 Python 云函数,该函数 在收到HTTP 请求时触发。它应解析一个包含 userId和 documentId的 JSON负载,然后使用 google-cloud-firestore客户端库从 'users' 集合中获取特定 文档,并将其作为 JSON响应返回。 • 用于全面测试:提供您现有的一个函数,并要求 Code Assist 生成完整的测试套件,包括为Google Cloud 服务(如 Cloud Storage 或 Firestore)所需的模拟。 • 用于大规模Gemini 驱动的重构:要求它分析您代码库中 的多个服务并生成战略计划。例如:"鉴于我们的 'user‑service' 和 'auth‑service',请提出一个逐步计划, 将认证逻辑重构为一个单一的共享库,并说明这种方法的权 衡。" Gemini Cloud Assist Gemini Cloud Assist 是专为您的Google Cloud 环境提 供的 AI 专家,可为基础设施管理与应用程序运维提供上下 文感知的协助。它利用您项目中的上下文信息,包括 Google Cloud 项目 ID和控制台中正在查看的具体产品页 面,来定制其支持内容。2 核心功能 • 设计与部署:在应用程序设计中心,您可以使用自然语言 描述期望的基础设施结果。Gemini Cloud Assist 将生成架 构图和应用程序模板,并可导出为 Terraform格式,以便与 现有的基础架构即代码(IaC)工作流集成。 • 排查与解决:与 Cloud Observability 集成,汇总复杂的 日志条目并解释错误信息。对于更深层的问题,您可以启动 调查,Gemini 将分析日志和指标以识别根本原因。 在Gemini Cloud Assist 中尝试以下提示: 我如何使用Vertex AI 部署模型? 制定一个在Google Cloud 中设计、构建和部 署Web应用的高级计划。 列出 prod-v1项目中未启用对象版本控制的所有云存储 桶。 应用于具有网络标签 external‑web‑server 的实例的面向公 众的防火墙规则有哪些? 显示授予服务账户 data‑pipeline@my‑project.iam.gserviceaccount.com的所有 IAM角色 2. 有关 Gemini Cloud Assist 的基础原理详情,请参阅官方 文档。 • 配置与优化:在 FinOps 控制台和成本优化仪表板中提供个 性化的成本与利用率建议。 • 安全与分析:支持使用自然语言对网络流量和日志进行调查。 它提供有关安全任务的指导,例如数据加密、密钥管理以及生 成或测试自定义组织策略。它可 还建议使用 IAM角色并诊断权限错误。 这对初创公司为何重要 • 释放时间:云管理会占用大量工程时间。Gemini Cloud Assist 让您能够专注于构建您的产品。
📄 Page
10
第2节第3节 8 第1节:AI代理的核心概念 Gemini 在 Colab Enterprise 中 如果你的初创公司从事数据科学、机器学习或分析领 域,Colab Enterprise 中的 Gemini 能将每个笔记本 转变为协作式AI 工作空间。它专为在上下文中生成、 解释和调试 Python 代码而构建。 核心功能 • 在 Colab 中自动补全并生成 Python 代码。 • 用简单语言解释代码逻辑和错误。 • 筛选、转换和可视化数据。 • 推荐公共数据集和研究资源。 • 总结整个笔记本或代码单元。 引入合作伙伴代理 如果您的使用场景更加专业化,您可以轻松地通过 Google Cloud 的开放生态系统和Google Cloud 市场, 将第三方或开源代理集成到您的堆栈中。 探索Agent Garden,以部署已支持数据推理和代理间协作的 预构建ADK代理。您可以将它们与您自行构建的代理混合搭 配,从而加快实现效果的速度。 在 Colab Enterprise 中的 Gemini 中尝试这些提示: 如何筛选 Pandas DataFrame? 给我展示一份可用于气候技术的公开数据集列表。 按地区绘制平均收入图。 总结此笔记本的目标。 这对初创公司为何重要 • 加速研究和开发:自动化数据准备中最繁琐的方面,分析和可视化,使开发者能够显著更快地迭代新模型和想法。 • 降低入门门槛:刚接触数据科学的工程师可以立即 上手,而经验丰富的从业者则可以更专注于模型实验, 而非数据整理。
📄 Page
11
第2节 第3节 9 第1节:AI代理的核心概念 每个代理的关键组件 1.2 模型:选择与调优 将模型视为您代理的大脑。您可以使用模型来读取用户请 求,判断需要发生什么,并生成智能响应。 如何选择合适的模型 选择合适的模型并非挑选可用的最强大模型,而是为您的使用 场景找到能力、速度和成本之间的最佳平衡。每个模型都可以 根据这三项相互冲突的特性进行评估,目标是为特定任务识别 出最高效的选项。 随着模型能力的提升,其成本和延迟通常也会增加。最常见 的错误是为不需要高能力的使用场景过度投入,导致资源浪 费和性能下降。最优策略是为任何给定任务选择最高效的模 型。 这一原则在系统层面应用时最为有效。强大的认知架构采用 多个专用代理,每个代理动态为其特定子任务选择最轻量的 模型。例如,这确保了重型模型仅用于复杂推理,而轻型模 型处理常规查询。这种多代理方法为整个系统的成本和性能 优化提供了架构灵活性,而不仅限于单个组件。 3. Gemini 2.5 Pro 在前沿编码基准测试(Aider Polyglot 上达到 82.2%)和推理基准测试(GPQA diamond 上达到 86.4%)中取得了最先进的结果。数据截至 2025 年 6 月。 桑达尔·皮查伊谷歌和字母公司的首席执行官 AI代理是将先进AI模型的智能与工具访问 能力相结合的系统,使它们能够在您的控制 下代表您采取行动。 早期原型设计和大规模任务 • 模型简介:一种轻量级、低成本的模型,如 Gemini 2.5 Flash‑Lite。 • 理由:这是最具成本效益且最快的 2.5 模型,在 高吞吐量、对延迟敏感的任务(如翻译和分类)中 表现优异。 高吞吐量、高质量的应用程序 • 模型简介:一款平衡型中端模型,如Gemini 2.5 Flash。 • 理由:此模型旨在控制质量、成本与速度之间的 权衡。它在复杂任务上表现出色,价格低于 Pro 版 本,非常适合需要兼具智能与经济性的生产应用程 序。 复杂的多步推理与前沿代码生成 • 模型简介:一款先进的推理模型,如 Gemini 2.5 Pro。 • 理由:这是为最困难任务设计的最强大模型,性能不可或缺。 3 使用场景
📄 Page
12
第2节第3节 10 第1节:AI代理的核心概念 您可以使用Gemini 2.5系列模型来分解问题、制定计划并使 用工具。这一推理过程是可配置的。通过为特定调用分配更 多推理代币,开发者可以引导模型投入更多计算资源,从而 以可预测的延迟和成本增加为代价,换取潜在的准确性提升。 这种基于代币的控制,结合模型选择和可配置的推理模式,为 开发者提供了一套动态的调节手段,以实现复杂的优化。整个 多智能体系统的成本和性能可进行校准,以满足特定的业务和 技术需求。 在Vertex AI 上使用Model Garden,从单一的集中式平 台发现、自定义和部署基础模型。它提供了来自Google、 Anthropic 等合作伙伴以及Meta(Llama 系列)和 Mistral 等提供商的 200 多个模型的精选集合。您无需手 动管理基础设施,只需单击即可将模型部署到应用程序中, 并利用内置的端到端MLOps 功能进行扩展。 专业提示
📄 Page
13
第2节第3节 11 第1节:AI智能体的核心概念 模型调优 一旦您选择了符合成本、延迟和质量需求的模型,您可能有 机会对其进行微调。这将通过使用您自己精选的高质量示例 数据集,使其知识和风格更贴合您的特定业务需求。 微调的可用性是基于每个模型单独确定的。在Google的模型投 资组合中,此功能支持Gemma系列开源权重模型以及特定版本 的Gemini。重要的是,需查阅每个模型的文档和许可协议,以 确认微调是否被允许且技术上受支持。 工具:实现智能体动作 工具是被定义的能力,使智能体能够超越其核心推理模型的原 生功能,从执行简单的内部计算到通过API调用与外部系统交 互。它们弥合了智能体推理能力与获取新信息或执行有状态操 作之间的差距。 工具可以包括各种组件: • 内部函数和服务:由您自己的团队编写的专有逻辑。 • API:连接到内部服务和外部第三方服务。 • 数据源:查询数据库、向量存储或其他信息存储库的能力。 • 其他智能体:在多智能体系统中,一个智能体可以将另 一个专用智能体作为工具使用。 要查看哪些模型可以在Vertex AI 上进行微调,请查阅官 方文档。 小贴士 微调支持智能体 假设你正在为你的 SaaS 产品构建一个顾客支持代理。 你可以使用成千上万份过往支持工单及其理想解决方 案的数据集进行微调,以帮助模型了解常见问题,并 以与你的支持团队风格一致的方式进行回应。 使用场景 微调不等于事实锚定。微调调整模型的风格并优化其在 特定任务上的知识。事实锚定将模型连接到实时且可验 证的数据源,以确保其响应在事实上的准确性。模型的 事实锚定将在下文详细讨论。 Note
📄 Page
14
第2节第3节 12 第1节:AI代理的核心概念 数据服务 概述 初创企业使用场景 Vertex AI 搜索 一种用于构建高性能向量搜索应用程序的托管服务。 它是实现对大型非结构化数据集进行语义理解与检索 的主要工具。 快速在您的内部产品文档、客户支持聊天记录和社区 论坛帖子中查找答案,以便您的客服人员能够为新用 户提供准确且上下文感知的支持。这减轻了您小型支 持团队的负担。 Firestore 一种无服务器的NoSQL 文档数据库,具备实时同步功能。其灵活的分层数据模型非常适合存储结构化上下文和代理的长期或持久状态。在用户完成多步骤、代 理引导的注册流程的每一步(例如“创建个人资料”、“连接API”、“邀请团队成员”)时,代理会更新一个 Firestore 文档。开发人员可以实时观察代理 的任务进度,用户也可以在会话之间无缝继续该流程。 Vertex AI 记忆库 (预览) 一种专为Vertex AI Agent Engine 设计的托管服 务,旨在动态生成、存储和检索来自用户对话的长 期记忆。 无需手动构建逻辑来提取用户偏好,代理可自动调用 GenerateMemories以处理对话历史。该操作异步提取关 键事实(例如,“用户偏好直飞航班”,“用户的狗名叫 Fido”)并进行存储。在未来的会话中,代理可通过相似 性搜索检索这些记忆,以提供深度个性化且持续的服务体 验,并只需极少的自定义代码。 云存储 一种高度可扩展且持久的对象存储,用于存储原始数据,作为所有非结构化源数据(例如PDF、图像、视频、用户上传 的文档、错误报告的图片或客户反馈通话的音频记录)的持久且低成本的入口区域,供其他服务进行索引和处理。这些 原始数据随后由Vertex AI Search等服务进行处理和索引,以丰富代理的知识。 BigQuery 一种完全托管的无服务器数据仓库,用于存储和分析大规模结构化和半结构化数据集,使代理能够配备执行复杂分析查询的工 具。代理可提出问题,例如:“上星期我们推出的新功能,用户的参与模式是怎样的?”或“基于近期活动,哪些客户群体的 流失风险最高?”BigQuery提供即时商业智能。 代理系统的数据架构 数据是代理短期和长期记忆的基础。一个健壮的数据架构必须满足三种不同的需求:用于长期知识检索的持久存储、用于短期 对话上下文的低延迟访问,以及用于交易审计的持久账本。通过将特定的Google Cloud 服务映射到这些需求中的每一项,您 可以确保每一项架构决策既具有成本效益又可扩展,同时满足即时的业务需求和上市时间目标。 1. 长期知识库(基础与检索) 代理的长期记忆是其智能、情境化和个性化的基础,它与实时对话中的快速短期上下文截然不同。一个强大的长期记忆架构 应包含三个核心组件:一个结构化的知识库,用于通过检索增强生成(RAG)实现基于事实的情境化;一个持久存储,用于 保存用户交互历史,以实现连续且个性化的体验;以及一个操作数据湖,用于存储原始材料,如对话成绩单和工作流状态, 以支持更复杂的认知过程和未来的分析。
📄 Page
15
第2节 第3节 13 第1节:AI代理的核心概念 2. 工作记忆(对话上下文和短期状态) 这一层管理正在进行的任务或对话所需的瞬态信息,必须提供极低延迟的访问,以维持响应迅速的用 户体验。 3. 事务记忆(状态管理与操作审计) 该层负责以强一致性和完整性记录动作和状态变化。它作为系统记录源,通常需要ACID 保证以确保可靠性。 数据服务 概述 初创企业使用场景 Cloud SQL 一种完全托管的服务,用于传统关系型数据库,为单区域事务工作负载提供强一致性。它是可靠状态管理的标准选择。当代理成功执行关键业务操作 时,例如处理订阅支付或通过API 调用为用户开通新服务,它会将一条记录写入 Cloud SQL 数据库。这会创建一个永久的、符合ACID 标准的审计 日志,确保每个重要的代理驱动操作都能被可靠地跟踪和验证。 Cloud Spanner 一种全球分布、强一致性的关系型数据库,提供水平扩展能力。它专为需要跨地理区域实现高可用性和事务完整性的重要应用 程序而设计。初创企业通常在实现产品市场契合后,才会从 Cloud SQL 迁移至 Spanner,此时其用户群已实现全球分布。例 如,一个最初使用 Cloud SQL 的旅行或电子商务应用,现在需要同时处理来自北美、欧洲和亚洲用户的预订或订单,且不产 生数据冲突。Spanner 的全局事务一致性支持这种规模。 数据服务 概览 启动场景 Memorystore 一种完全托管的内存数据存储,提供亚毫秒级延迟。它非常适合缓存频繁访问的数据和管理会话状态。其主要作用是通过高速缓存来存 储任何计算密集型或高延迟操作的结果。与其反复执行代价高昂的任务,例如调用 LLM API、复杂的数据库查询或调用第三方服务,代 理首先会检查Memorystore 中是否存在缓存结果。这显著降低了响应延迟和持续的运营成本,这两者对初创公司的代理系统都至关重 要。
📄 Page
16
第2节第3节 14 第1节:AI代理的核心概念 代理编排:执行功能 编排是指导代理完成多步骤任务的操作核心。对于任何需 要超过单个动作的流程,它决定需要哪些工具、按何种顺 序使用,以及如何组合它们的输出以实现最终目标。 作为代理的执行功能,您可以应用编排来负责规划 和决策。通过自动化复杂的业务流程,它为小型创 业团队创造了强大的杠杆。 编排概念与认知架构 一种常见且有效的编排模式是ReAct(推理 + 行动),这是 一个协同大型语言模型推理与行动能力的框架。4 ReAct 建立了一个动态的多轮循环,模型以交错的方式生成 推理轨迹(思考)和任务特定的操作。这实现了更好的协同 效应——推理帮助模型跟踪和更新操作计划,而操作则通过 外部工具收集信息以指导推理过程。 工作原理如下: 1. 原因:智能体评估目标和当前状态,形成关于下一步最佳操 作以及是否需要工具的假设。 2. 行动:智能体选择并调用适当的工具。 3. 观察:智能体接收工具的输出。这些新信息被整合到智能体 的上下文中,并为循环中的下一个“原因”步骤提供输入。 4. Yao, S., Zhao, J., Yu, D., Du, N., Shafran, I., Narasimhan, K., & Cao, Y. (2023). ReAct: Synergizing Reasoning and Acting in Language Models. 发表于 ICLR 2023 会议论文。
📄 Page
17
第2节第3节第1节:AI代理的核心概念 示例:使用ReAct编排处理退款 • 原因:用户希望退款。第一步是了解公司的退款 政策。 • 行动:使用语义_搜索工具,通过“退款政策”查询内 部知识库。 • 观察:工具返回:"在购买日期起30天内,所有产品均可全 额退款。" • 原因:该政策要求提供购买日期。此用户特定订单 的信息必须来自CRM系统。 • 操作:调用 get_订单_详情函数,并传入用户ID,从 CRM工具中获取。 • 观察:该函数返回一个订单对象,包括 purchase_date: ‘2025-07-20’。 • 原因:当前日期为2025年7月29日。购买发生在9天前, 在30天的窗口期内。条件已满足,可以发起退款。 • 操作:调用 process_退款工具,传入订单ID和退款 金额。 • 观察:该工具返回 status: ‘success’。 • 最终答案:“您的退款已成功处理。您应在3‑5个 工作日内看到该金额已计入您的账户。” • 自动化客户入驻:可以编排一个代理来引导新用户完 成设置。它可能首先使用工具通过API创建一个新账户, 然后使用发送电子邮件工具发送欢迎_消息,并最终使用 工具查询数据库以确认用户已完成其首次操作,若未完 成,则触发后续提示。 • 主动系统监控与修复:编排流程可由监控警报触发。 首先,代理通过使用工具查询Cloud Logging中的日志 来获取更多上下文。根据日志,它可能会决定使用 kubectl工具重启GKE中的特定Pod,并最终使用一个 slack_notification工具向值班频道报告该操作。 • 复杂的潜在客户资格审核:可以编排一个销售代理, 通过API从公司数据中丰富新潜在客户的电子邮件信 息。它将使用工具搜索内部CRM,以确认该潜在客 户是否为现有顾客。然后,它将根据收集的信息决定 将该潜在客户分配给一位大四销售代表,或将其加入 培育流程。 使用场景 掌握编排是超越简单单次代理的关键。当你做得正确时,你 将创建出复杂的自主系统,能够解决以往在技术上不可行的 问题。它解锁了一类新的应用程序和用户体验。
📄 Page
18
第2节第3节 16 第1节:AI代理的核心概念 运行时:大规模部署代理 将功能型代理原型部署到生产环境需要一个强大的运行时基础 设施。运行时支持代理的大规模部署,将原型转变为能够处理 复杂运营需求的可靠产品,例如安全、负载均衡和错误处理, 特别是在用户量不可预测增长期间。 运行时概念与架构 用于AI代理的生产级运行时环境必须提供以下核心功能: • 可扩展性:基础设施必须能够自动扩展,以应对从零到数 百万请求的可变负载。这包括基于请求的负载均衡和基于资 源的自动扩展,以高效管理计算需求。 • 安全:运行时必须提供安全的执行环境,管理身份、网络 访问控制和安全通信通道(例如 TLS),以保护代理及其访 问的数据。 • 可靠性和可观测性:系统必须包含错误处理、自动重试 和全面监控的机制。这涉及记录代理的操作和工具输出, 并收集性能和资源利用率的指标,以诊断和解决问题。 您选择的运行时环境直接影响运营开销和扩展能力。 • Vertex AI 代理引擎:一家处于种子阶段的初创公司, 其工程团队规模较小,部署了首个客户支持代理,在数 天内而非数周内,便从一个可用的原型转变为可扩展且 安全的生产端点。 • Cloud Run:一家初创公司因其新推出的AI 功 能而经历快速增长但不可预测的流量,他们将 ADK代理部署在此无服务器架构上,仅在代理主 动处理请求时支付计算费用。这是一种成本效益高 的方式,可应对流量高峰,而无需过度配置基础设 施。 • Google Kubernetes Engine (GKE):一家B轮初创 公司拥有成熟的平台工程团队和数十个微服务,决定将 其新的内部自动化代理托管在现有的GKE集群上。这样, 他们可以利用现有的CI/CD流程、安全策略和监控仪表 板,确保该代理遵循与其余生产服务相同的运营标准。 使用场景
📄 Page
19
第2节 第3节 17 第1节:AI代理的核心概念 基础在代理系统中的作 用 1.3 智能体的可信度和实用性取决于其基于可验证事实提供准确、 可信答案的能力,这一过程称为 grounding。本节探讨了 grounding 技术的演变,为构建日益复杂和可靠的智能体提供 了路线图。 我们从RAG的基础模式开始,该模式通过基于语义相似性检索 文本来为代理提供基础。接着,我们探讨GraphRAG,它通过 理解知识图谱中数据点之间的显式关系来丰富基础。最后,我们 介绍Agentic RAG,在这种模式下,代理不再是信息的被动接 收者,而是成为检索过程中的主动、推理型参与者,能够执行多 步骤策略以找到最佳答案。 RAG:基础的第一步 通往复杂 grounding 的第一步是 RAG的架构模式。这种方法 在生成答案之前,从外部知识库中检索相关信息,从而增强 LLM的响应。代理不再仅依赖其预训练的知识,而是执行语义 搜索以找到可验证的数据,然后将这些数据作为上下文传递给 LLM。这确保了基础答案的可 grounding 和可验证性。 尽管这是基础性的,但这种简单的先检索后生成过程将知识视为 一组彼此孤立的孤立事实。它在直接问答方面是一种强大的技术, 但在需要深入理解数据点之间关系的复杂查询中表现不足。 RAG对代理系统的好处 • 代理可以访问最新信息:检索到的信息比其最后一次训练日期更及时,从而能够更及时且相关的代理行为。 • 代理更加准确:RAG显著降低了可能导致错误或不适当代 理行为的输出风险。 • 更快的响应:向量嵌入和专用数据库能够对海量数据集进 行闪电般的语义搜索,使代理能够提供更及时、更响应的决 策。 • 更全面的代理感知:RAG工作流(包括数据摄入、解析、 分块、嵌入、存储和检索)可应用于文本、图像及其他类型 的数据。通过这种更深入的理解,代理能够执行更复杂、多 步骤的推理任务。 Google Cloud 的托管型即用型RAG解决方案称为Vertex AI Search。它简化了数据源集成的过程,并且还可使用开源 或第三方工具。Vertex AI RAG 引擎提供了一个数据框架,用 于开发上下文增强的 LLM应用程序,以提供符合特定知识和 政策的准确、可控的响应。这非常适合客户支持、内部知识管 理和合规相关任务等关键初创应用。
📄 Page
20
第2节 第3节 18 第1节:AI代理的核心概念 Vertex AI RAG 引擎正在运行 向量数据库:按意义搜 索 通过向量嵌入,系统能够根据语义而非仅关键词进行搜索。 这些数值表示捕捉了数据(如文本和图像)的概念本质, 使系统能够无论问题如何表述,都能找到相关的信息。 向量数据库是实现这种规模化应用的基础设施。它们是 高度专业化的系统,专为存储、索引和查询数百万个此 类嵌入而设计,以满足响应式智能系统所需的极低延迟。 工作原理如下: 1. 数据被转换为向量嵌入:机器学习模型将语义相似 的物品在多维向量空间中放置得彼此接近。 2. 存储与索引:向量数据库存储这些嵌入,并构建专 用索引,以实现快速高效的相似性搜索。 3. 查询:用户的查询通过同一模型转换为嵌入。数据库随 后在其索引中找到与查询嵌入最接近的嵌入,从而有效检 索出语义上最相关的信息,以支撑模型的响应。 增强客户支持 一家鞋类公司使用向量数据库和语义搜索来驱动顾客支持聊天 机器人: • 产品描述、保修信息和常见问题均被转换为嵌入并存储。 • 向量数据库理解“适合宽脚人群”在语义上与“宽版”、 “加宽”或“宽脚舒适”等概念相关。 • 它检索相关的商品推荐并提供更佳的顾客体验。 将此与鞋类公司使用传统数据库进行比较。使用 LIKE ‘% good for people with widefeet%’的查询将无法返回任何结 果,因为该确切短语并不存在于数据库中。 使用场景 使用检查接地API 来验证 AI 的回答是否基于可靠且最新的 信息。使用Vertex AI 搜索和 Vertex AI RAG 引擎,利用 您的专有内容来增强响应。 Tool 小贴士
The above is a preview of the first 20 pages. Register to read the complete e-book.
Recommended for You
Loading recommended books...
Failed to load, please try again later