Anthropic API发布四大新功能:AI代理开发迎来新纪元

1

在人工智能领域,Anthropic 公司于 2025 年 5 月 22 日宣布推出一系列增强其 API 的新功能,旨在帮助开发者构建更加强大的 AI 代理。这些新功能包括代码执行工具、MCP 连接器、Files API 以及长达一小时的提示缓存能力。

An illustration of a triangle connected to a circle.

构建更强大的 AI 代理

结合 Claude Opus 4 和 Sonnet 4,这些测试版功能使开发人员能够构建执行代码以进行高级数据分析的代理,通过 MCP 服务器连接到外部系统,跨会话高效地存储和访问文件,并通过经济高效的缓存将上下文保持长达 60 分钟,而无需构建自定义基础设施。

例如,一个项目管理 AI 代理可以使用带有 Asana 的 MCP 连接器来引用任务和分配工作,通过 Files API 上传相关报告,使用代码执行工具分析进度和风险,并在整个过程中保持完整的上下文——所有这些都通过扩展提示缓存来降低成本。

这些功能与现有的 Web 搜索和引用功能一起,构成了构建 AI 代理的综合工具包的一部分。让我们继续详细探讨每个新功能。

代码执行工具

Anthropic API 引入了一个代码执行工具,使 Claude 能够在沙盒环境中运行 Python 代码,以生成计算结果和数据可视化。这使得 Claude 从代码编写助手转变为数据分析师,后者可以直接在 API 调用中迭代可视化、清理数据集和得出见解。

借助代码执行工具,Claude 可以加载数据集、生成探索性图表、识别模式,并根据执行结果迭代地改进输出——所有这些都在一次交互中完成。这意味着 Claude 可以端到端地处理复杂的分析任务,而不仅仅是建议您单独运行的代码。

主要用例包括:

  • 财务建模:生成财务预测、分析投资组合和计算复杂的财务指标。
  • 科学计算:执行模拟、处理实验数据和分析研究数据集。
  • 商业智能:创建自动化报告、分析销售数据和生成性能仪表板。
  • 文档处理:提取和转换跨格式的数据、生成格式化报告和自动化文档工作流。
  • 统计分析:对数据集执行回归分析、假设检验和预测建模。

组织每天可免费使用代码执行工具 50 小时,超出部分按每个容器每小时 0.05 美元的价格收费。查阅文档以了解有关定价的更多信息。

MCP 连接器

Anthropic API 上的 MCP 连接器使开发人员能够将 Claude 连接到任何远程模型上下文协议 (MCP) 服务器,而无需编写客户端代码。

以前,连接到 MCP 服务器需要构建自己的客户端线束来处理 MCP 连接。现在,Anthropic API 会自动处理所有连接管理、工具发现和错误处理。只需将远程 MCP 服务器 URL 添加到您的 API 请求中,您就可以立即访问强大的第三方工具,从而大大降低了构建支持工具的代理的复杂性。

当 Claude 收到配置了 MCP 服务器的请求时,它会自动:

  • 连接到指定的 MCP 服务器
  • 检索可用的工具
  • 推断要调用什么工具以及要传递什么参数
  • 以代理方式执行工具调用,直到获得足够的结果
  • 管理身份验证和错误处理
  • 返回带有集成数据的增强响应

远程 MCP 服务器不断增长的生态系统意味着您可以轻松地向 AI 应用程序添加功能,而无需构建一次性集成。您可以与任何远程 MCP 服务器集成,包括来自 Zapier 和 Asana 的服务器。在我们的文档中查看更多远程 MCP 服务器。

Files API

Files API 简化了开发人员在使用 Claude 构建时存储和访问文档的方式。现在,您可以一次上传文档,并在整个对话中重复引用它们,而无需在每个请求中管理文件上传。

这简化了开发工作流程,特别是对于需要处理大型文档集(例如知识库、技术文档或数据集)的应用程序。

Files API 将与代码执行工具集成,使 Claude 能够在代码执行期间直接访问和处理上传的文件,并生成图表和图形等文件作为响应的一部分。这意味着开发人员可以通过 Files API 上传一次数据集,然后让 Claude 在多个会话中对其进行分析,而无需重新上传。

扩展的提示缓存

开发人员现在可以选择我们的标准 5 分钟生存时间 (TTL) 用于提示缓存,或者选择额外的 1 小时 TTL,但需要额外付费——这是一项 12 倍的改进,可以降低长时间运行的代理工作流程的费用。通过扩展缓存,客户可以为 Claude 提供广泛的背景知识和示例,同时将长期提示的成本降低高达 90%,延迟降低高达 85%。

这使得构建在较长时间内保持上下文的代理成为可能,无论它们是处理多步骤工作流程、分析复杂文档还是与其他系统协调。以前面临高昂成本的长期运行的代理应用程序现在可以大规模高效运行。

总结与展望

Anthropic 此次发布的新功能,无疑为 AI 代理的开发带来了革命性的变革。通过代码执行工具,AI 代理具备了强大的数据分析能力,不再局限于简单的代码生成,而是能够直接在 API 调用中完成复杂的数据处理和可视化任务。MCP 连接器的引入,极大地简化了 AI 代理与外部系统的集成过程,开发者无需编写繁琐的客户端代码,即可轻松连接到各种远程服务,实现功能的扩展。

Files API 的推出,解决了开发者在处理大型文档集时面临的难题,通过一次上传、多次引用的方式,大大提高了开发效率。而扩展的提示缓存功能,则有效降低了长期运行的 AI 代理的成本和延迟,使其能够在更广泛的场景中得到应用。

展望未来,随着这些新功能的不断完善和优化,我们有理由相信,AI 代理将在各个领域发挥越来越重要的作用,为人类带来更多的便利和价值。例如,在金融领域,AI 代理可以利用代码执行工具进行复杂的财务建模和风险分析;在医疗领域,AI 代理可以借助 Files API 处理大量的医疗数据,辅助医生进行疾病诊断和治疗方案的制定;在教育领域,AI 代理可以根据学生的学习情况,提供个性化的学习辅导和知识推荐。

当然,AI 代理的发展也面临着一些挑战,例如如何保证 AI 代理的安全性、可靠性和可解释性,如何避免 AI 代理的偏见和歧视,如何平衡 AI 代理的效率和公平等。这些问题需要我们共同努力,通过技术创新、制度完善和伦理规范等多种手段,共同推动 AI 代理的健康发展,使其更好地服务于人类社会。

起步

所有这些功能现已在 Anthropic API 上以公开测试版提供。请访问我们的文档以了解更多信息,或观看我们开发者大会的主题演讲,以了解这些功能的实际应用。