谁为智能体犯错负责

2026-04-02 15:41:49 来源: 《环球》杂志

这是2025年1月8日,美国拉斯维加斯消费电子展Old World Labs 展区的机器人展示。人工智能(AI)技术驱动的新应用、新解决方案是本届展会最大热点,AI智能体成为参展企业热议词汇

/《环球》杂志记者 胡艳芬 郭丹(发自北京)褚怡(发自柏林)

编辑/黄红华

  《环球》杂志:当AI智能体(Agent)犯了错,谁来负责?

  亚历山大·措恩:鉴于当前的技术发展水平,这是一个极具挑战和高度开放的问题,其责任界定在很大程度上取决于具体的应用场景。面对这类新议题,我常借用传统软件开发的成熟框架来类比思考:如果当下一款软件因有缺陷引发系统故障,责任该由谁承担?是多年前编写这套软件的开发者,还是软件的提供方、采购方,抑或错误使用、不当部署的最终用户?

  事实上,即便所有相关方都秉持着良好的初衷开展工作,错误也无法杜绝。就我所知,这个问题无法一概而论地给出普适答案,未来很长一段时间里,恐怕仍需结合具体个案来谈论和判定。

  王强:智能体犯错后,责任绝不能简单地推给算法。更合理的原则是:根据谁定义目标、谁设置规则、谁部署使用、谁从结果中获益等核心维度,划定各相关方的对应责任。

  因此,智能体时代的核心,并非争论“到底由谁承担全部责任”,而是建立清晰、可落地的责任分层机制,包括行为日志留痕、执行过程可追踪、权限设置可回溯、关键环节可解释、事故发生后可复盘。唯有如此,责任才能真正落到实处,而非出事之后各方都以“是AI干的”推卸责任。从治理角度看,智能体的行动力越强,越要将责任机制前置,而非事后补救。

  曹涛:这是智能体时代的法律与伦理挑战,也是当前全球监管机构与法律学者争论最激烈也亟待解决的议题。从我的实践经验出发,我认为智能体犯错的责任归属应遵循“链式分层问责”原则,按不同主体划定清晰的责任边界。

  责任主体大概分为以下三个层次。

  其一,开发者责任(能力边界层):AI系统开发者对智能体的基础能力、已知限制和安全缺陷负有产品责任。如果智能体因模型幻觉导致错误,开发者有义务披露风险并提供安全护栏。

  其二,部署者责任(使用场景层):将智能体部署到具体业务场景的企业或个人,对授权边界和使用规范负有主责。当智能体出现超权行为时,部署者通常需承担最直接的法律责任,这也是企业级AI必须建立严格的智能体部署治理体系的核心原因。

  其三,用户责任(操作触发层):如果用户明确指示智能体执行有风险的操作,用户需承担相应的操作责任。

  在医疗健康AI实践中,这一问题尤为敏感。即便AI辅助诊断系统给出了错误的诊疗建议,承担最终医疗责任的依然是签署诊断报告的临床医生。这是设计医疗AI系统时必须内嵌的“不可绕过的人类责任节点”,是对生命负责的底线要求。

  当前全球法律体系普遍滞后于智能体能力的发展。对此我建议从三个方向推进制度建设:一是强制要求建立智能体行为全链路审计日志,实现技术层面可追责;二是建立AI责任险制度,在经济层面合理分担风险;三是制定智能体行为的最低安全标准,从监管层面设立行业准入门槛。

  责任不能因为决策者是AI而消失,它只是被重新分配给了设计者、部署者和监管者。

  金坚敏:在智能体时代,制度越来越重要。以网络攻击为例,过去还能通过语言的本地化特征判断攻击者的地域属性,但随着AI翻译技术的迭代,翻译内容已高度本土化,这一判断依据如今已不再适用。

  以往,国家或组织的安全防护多注重物理和组织边界,比如明令禁止核心资料外流等。但在智能体普及后,仅依靠组织边界、国境边界已无法有效防范风险,必须搭建多层级防护体系,最大限度降低重要信息外泄的可能性,比如建立信息泄露的快速检测机制,强化信息保护的相关监测制度等。

  同时,在数字时代,每个人都需树立个人隐私保护意识,防止智能体过度获取个人信息,进而被利用实施犯罪行为等。例如企业利用智能体筛选个人简历时,若智能体的相关数据被盗取,极易造成大量真实个人信息外泄。

  归根结底,智能体犯错的责任界定,是一个关乎社会制度与法律体系的问题。在当前的法律框架中,AI并未被定义为责任主体,因此须明确:若因AI智能体引发犯罪问题,责任该由开发者、智能体的使用主体,还是批准使用智能体的相关管理者承担?这也是当下社会热议的话题,目前不同企业、不同组织对此的规定都不同。

  值得思考的是,反过来如果智能体完成工作的效果优异,相关的功劳如何评估、相应的奖励如何分配,这也是组织、社会需要提前谋划的问题。

 

手机版