■盛 翔
“李小亮律师被判三年有期徒刑”——这不是真实案件判决结果,而是百度“AI智能回答”自动生成的虚假信息,凭空捏造的“罪状”还配上了李小亮身穿律师袍的职业照片,伤害了李小亮的个人名誉与职业声誉。南京市江北新区人民法院一审认定百度公司上述行为构成名誉侵权,判决其向李小亮书面道歉,百度公司不服提出上诉,南京市中院二审维持原判。由于百度公司尚未履行生效判决,近日,李小亮向江北新区法院提交了强制执行申请。
据悉,这是国内首例AI大模型名誉侵权案。AI幻觉,是指生成式人工智能(特别是大语言模型)输出看似合理、实则与事实不符或偏离用户指令内容的现象,简而言之就是AI“一本正经地胡说八道”。那么,平台该为AI幻觉道歉吗?
在法庭上,百度公司的辩解颇具代表性:一是AI幻觉具有不确定性、偶发性,属于技术初期的客观局限;二是用户存在诱导性提问,AI因此产生错误关联;三是此案若被严格追责,将对整个AI产业造成巨大冲击。这些说法貌似道理,细究之下其实都站不住脚。
虽然AI有时的确会“一本正经地胡说八道”,但AI幻觉不是侵权借口。平台不能一边享受AI技术带来的流量和商业红利,一边拒绝承担对应的法律责任与审核义务。AI是你家的,算法是你设的,数据是你喂的,界面是你展示的,出了问题,岂能丢下一句“AI自己乱说”就全身而退?若任由平台以技术不可控为由逃避责任,AI生成内容将会成为法外之地。
所谓诱导性提问,同样不能转嫁平台责任。AI生成内容的逻辑与结果,最终由平台算法设计、数据训练、审核机制决定。用户输入只是触发条件,而非侵权根源。百度公司称“经投诉后,百度公司可以对产生错误的词条进行相应处理”,恰恰说明平台有能力干预。
产业冲击论更是伪命题,合规才是长久之道。任何新兴产业都不能凌驾于法律之上,不能以创新为名侵犯他人合法权益。AI难免出现幻觉,法律责任却不能“幻觉化”。此案判决不会阻碍AI产业发展,而是为产业健康发展立规矩、画红线——AI生成内容的责任主体,始终是背后的运营者,而非机器本身。
值得肯定的是,法院虽判侵权成立,判令书面道歉,却没有支持原告的赔偿诉求。这一谨慎态度十分必要,避免了过度追责可能引发的恶意索赔。可以预见,随着AI技术不断普及,类似纠纷将越来越多,若赔偿门槛过低,不排除有人故意污染AI提问、制造虚假信息后索赔,甚至催生灰色产业链。
技术是工具,更是责任。技术可以试错,责任不能悬空。当AI深度融入公共信息分发体系,平台必须承担起更高的审核与纠错义务,守住法律与伦理底线。如此,AI产业才能行稳致远。
