AI 模型的监管与公众监督挑战

自 ChatGPT 在两年前迅速走红以来,全球各地的科技公司纷纷推出了各自的 AI 产品,公众对 AI 的潜力感到惊叹,认为它能够显著改善日常生活。然而,随着 AI 的迅速普及,各国政府也开始警告其潜在的社会危害,包括取代工人、助长虚假信息、抑制竞争和威胁国家安全等问题。

政府监管与公众监督的困境

尽管政府急于建立系统以检测有害应用,但实际操作中却面临诸多挑战。特别是,一旦 AI 模型发布到实际应用中,公众要破解这些模型并找到危害证据变得极其困难。这一任务因 AI 行业日益渴望保护模型免受竞争对手侵害以最大化新兴能力利润而变得更加复杂。

OpenAI 与纽约时报的诉讼案例

诉讼背景

去年秋天,ChatGPT 的制造商 OpenAI 被指控试图通过向诉讼方收取零售价格以检查被指控造成危害的 AI 模型来获利。在纽约时报因版权问题提起的诉讼中,OpenAI 建议采用与图书作者提起的类似诉讼中使用的相同模型检查协议。

模型检查协议

根据该协议,纽约时报可以聘请专家在 OpenAI 选择的安全地点的“安全计算机上,在无互联网访问或与其他计算机网络访问的安全房间内”审查高度机密的 OpenAI 技术材料。在这个封闭的环境中,专家将有有限的时间和有限的查询次数,试图让 AI 模型坦白其内部情况。

争议焦点

  • 查询次数限制:纽约时报对 OpenAI 拟议的协议限制其专家通过应用程序编程接口进行查询的次数表示反对,即价值 15,000 美元的零售信用额度。
  • 成本问题:一旦诉讼方达到这一上限,OpenAI 建议双方分担剩余查询的成本,向纽约时报和共同原告收取半价零售价格以完成其余的发现工作。
  • 费用争议:纽约时报声称需要价值 80 万美元的零售信用额度来寻求证明其案件所需的证据,但据称实际上不会花费 OpenAI 那么多。

法院辩论的影响

这一法庭辩论的结果可能对未来公众寻求检查被指控造成危害的模型案件产生深远影响。如果法院同意 OpenAI 可以为模型检查收取零售价格,可能会潜在地阻止无法负担支付 AI 专家或商业价格进行模型检查的任何原告提起诉讼。

AI 安全测试的挑战

AISI 的作用

美国政府成立了 AI 安全研究所(AISI),旨在通过进行安全测试以在模型部署前检测危害,保护美国免受风险 AI 模型的影响。测试应“解决对人权、公民权利和公民自由的风险,如与隐私、歧视和偏见、言论自由以及个人和群体安全相关的风险。”

资源与预算问题

然而,AISI 的安全测试是自愿的,尽管像 OpenAI 和 Anthropic 这样的公司同意进行自愿测试,但并非所有公司都如此。CivAI 的联合创始人 Lucas Hansen 担心 AISI 资源不足且预算不足,无法实现其广泛的目标,即保护美国免受未知的 AI 危害。

公众教育与自我保护

CivAI 的努力

CivAI 为教育活动创建演示和互动软件,帮助公众亲身体验 AI 的真正危险。Hansen 表示,尽管外人很难信任“某个进行非常技术工作的随机组织”的研究来揭示危害,但 CivAI 提供了一种受控的方式,让人们自己看到 AI 系统可能被滥用的方式。

法律制定者的建议

Hansen 还为正在应对 AI 风险的法律制定者提供建议。他认为,公众需要更多的教育和工具来理解和应对 AI 的潜在危害。(来源

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

我们将24小时内回复。
取消