Anthropic推出新功能Computer Use:可以像人类用户一样,在电脑屏幕上移动光标、点击相关位置并通过虚拟键盘输入信息

随着OpenAI、谷歌等竞争对手不断进化其 AI 模型,Anthropic 也在积极提升其 Claude Sonnet 模型的能力。最近,该公司为其 AI 模型添加了一项关键功能Computer Use:能够与计算机进行互动。这意味着 Claude 现在可以像人类用户一样,在计算机屏幕上移动光标、点击相关位置并通过虚拟键盘输入信息。

Computer Use 是通过快速连续截屏去执行操作,它要求用户授权其软件必要的访问权限,查看屏幕截图,计算移动光标到正确位置所需的垂直或水平像素数,它无法执行拖放之类常见鼠标操作。Anthropic 表示该工具有很多限制,容易出错,比如没有完成编程任务就去浏览黄石公园的照片。

新功能的意义

Anthropic 认为,让 AI 模型具备直接与计算机软件互动的能力是 AI 未来发展的重要一步。这一功能将开启一系列新的应用,这些应用是当前一代 AI 助手无法实现的。公司表示:“使 AI 能够以与人类相同的方式直接与计算机软件互动,将解锁大量新的应用领域。”

当前状态与挑战

尽管这一新功能前景广阔,但目前仍处于初步阶段,表现类似于测试版。一些对人类用户来说轻而易举的操作,如滚动、拖动和缩放,对 Claude 来说仍然是挑战。因此,Anthropic 鼓励开发者先在低风险任务中探索这一功能,并希望通过用户反馈逐步改进性能。

官方介绍

Claude 现在可以使用计算机了。最新版本的 Claude 3.5 Sonnet 可以通过适当的软件设置,遵循用户的命令在计算机屏幕上移动光标,点击相关位置,并通过虚拟键盘输入信息,模拟人们与自己计算机互动的方式。

我们认为这项技能——目前处于公开测试阶段——代表了 AI 进展的重大突破。下面,我们分享了一些关于开发计算机使用模型以及使其更安全的研究见解。

为什么计算机使用?

为什么这项新能力如此重要?现代工作的大部分是通过计算机完成的。使 AI 能够以与人类相同的方式直接与计算机软件互动,将解锁当前一代 AI 助手无法实现的大量应用。

在过去几年中,AI 的发展取得了许多重要里程碑——例如,执行复杂逻辑推理的能力和看懂理解图像的能力。下一个前沿是计算机使用:AI 模型不需要通过定制工具互动,而是可以按照指示使用任何软件。

研究过程

我们之前在工具使用和多模态方面的工作为这些新的计算机使用技能奠定了基础。操作计算机涉及看到和解释图像的能力——在这种情况下,是计算机屏幕的图像。还需要根据屏幕上的内容推理何时以及如何执行特定操作。结合这些能力,我们训练 Claude 解释屏幕上发生的事情,然后使用可用的软件工具执行任务。

当开发者让 Claude 使用计算机软件并给予必要的访问权限时,Claude 会查看用户可见的屏幕截图,然后计算需要垂直或水平移动光标多少像素才能点击正确位置。训练 Claude 准确计算像素是关键。没有这项技能,模型很难给出鼠标命令——类似于模型经常在看似简单的问题上遇到困难,比如“单词‘banana’中有多少个 A?”。

我们惊讶地发现,Claude 从我们在几款简单软件(如计算器和文本编辑器)上进行的计算机使用训练中迅速泛化(出于安全原因,我们在训练期间不允许模型访问互联网)。结合 Claude 的其他技能,这种训练赋予了它将用户的书面提示转化为一系列逻辑步骤并在计算机上采取行动的显著能力。我们观察到,当模型遇到障碍时,它甚至会自我纠正并重试任务。

尽管在我们取得初步突破后,后续进展迅速,但到达那里需要大量的试错。一些研究人员指出,开发计算机使用接近他们最初进入该领域时所设想的“理想化”AI 研究过程:不断迭代并反复回到绘图板,直到取得进展。

研究得到了回报。目前,Claude 在使用计算机方面处于最先进水平,就像人一样——即通过查看屏幕并采取相应行动。在一个测试开发者尝试让模型使用计算机的评估中,OSWorld,Claude 目前的得分为 14.9%。这远未达到人类水平的技能(通常为 70-75%),但远高于同一类别中下一个最佳 AI 模型的 7.7%。

使计算机使用安全

每次 AI 的进步都伴随着新的安全挑战。计算机使用主要是降低 AI 系统应用其现有认知技能的门槛,而不是从根本上提高这些技能,因此我们对计算机使用的主要关注点集中在当前的危害上,而不是未来的危害。我们通过评估计算机使用是否增加了我们负责任扩展政策中概述的前沿威胁的风险来确认这一点。我们发现,包括其新计算机使用技能在内的更新 Claude 3.5 Sonnet 仍然处于 AI 安全级别 2——即,它不需要比我们当前实施的安全和安全措施更高的标准。

当未来模型需要 AI 安全级别 3 或 4 的安全措施,因为它们存在灾难性风险时,计算机使用可能会加剧这些风险。我们认为,在模型仍然只需要 AI 安全级别 2 安全措施时引入计算机使用可能更好。这意味着我们可以在风险过高之前开始应对任何安全问题,而不是首次将计算机使用功能添加到风险更大的模型中。

本着这种精神,我们的信任与安全团队对我们的新计算机使用模型进行了广泛的分析,以识别潜在的漏洞。他们识别的一个担忧是“提示注入”——一种网络攻击,恶意指令被输入到 AI 模型中,导致其覆盖先前的指令或执行偏离用户原始意图的意外操作。由于 Claude 可以解释连接到互联网的计算机上的屏幕截图,因此它可能会暴露于包含提示注入攻击的内容。

在我们公开测试中使用计算机使用版本的 Claude 的开发者应采取相关预防措施以最小化这些风险。作为开发者的资源,我们在参考实现中提供了进一步的指导。

与任何 AI 能力一样,用户也可能故意滥用 Claude 的计算机技能。我们的团队开发了分类器和其他方法来标记和缓解这些滥用行为。鉴于即将到来的美国选举,我们对可能被视为破坏选举过程公众信任的尝试保持高度警惕。虽然计算机使用尚未足够先进或能够在现有能力相对较高的风险下运行,但我们已经采取了措施来监控 Claude 何时被要求参与与选举相关的活动,以及系统来引导 Claude 远离生成和发布社交媒体内容、注册网站域名或与政府网站互动等活动。我们将不断评估和迭代这些安全措施,以在公开测试期间平衡 Claude 的能力与负责任的使用。

与我们标准的数据隐私方法一致,默认情况下,我们不会在用户提交的数据(包括 Claude 接收的任何屏幕截图)上训练我们的生成式 AI 模型。

计算机使用的未来

计算机使用是一种完全不同的 AI 开发方法。到目前为止,LLM 开发者已经使工具适应模型,在 AI 使用专门设计的工具完成各种任务的定制环境中生产工具。现在,我们可以使模型适应工具——Claude 可以适应我们每天使用的计算机环境。我们的目标是让 Claude 使用现有的计算机软件,就像人一样。

还有很多工作要做。尽管它是当前的最先进水平,但 Claude 的计算机使用仍然缓慢且经常出错。有许多人们经常用计算机执行的操作(拖动、缩放等)Claude 还不能尝试。Claude 对屏幕的“翻页书”式视图——拍摄屏幕截图并将其拼接在一起,而不是观察更细粒度的视频流——意味着它可能会错过短暂的动作或通知。

即使在为今天的发布录制计算机使用演示时,我们也遇到了一些有趣的错误。在一个演示中,Claude 意外点击停止了长时间运行的屏幕录制,导致所有视频丢失。在另一个演示中,Claude 突然从我们的编码演示中休息,开始浏览黄石国家公园的照片。

我们预计计算机使用将迅速改进,变得更快、更可靠,并且对用户想要完成的任务更有用。对于那些软件开发经验较少的人来说,实施起来也会变得容易得多。在每个阶段,我们的研究人员将与我们的安全团队密切合作,确保 Claude 的新能力伴随着适当的安全措施。

我们邀请在公开测试中尝试计算机使用的开发者使用此表单向我们提供反馈,以便我们的研究人员继续改进这项新能力的有用性和安全性。(来源

我们将24小时内回复。
取消