AI说错话,要不要赔钱?

2026-01-28 19:00:40
全国首例生成式 AI“幻觉”侵权案,真正划清的不是责任,而是边界。

作者 | wwz

生成式人工智能,正在成为新的“基础设施”。

它被用来写方案、查信息、给建议,甚至参与越来越多原本需要人类判断的决策场景。

但问题也随之而来:当 AI 一本正经地“说错话”,而且说得极其像真的时候,责任该由谁来承担?

杭州互联网法院近日审结的这起案件,是全国首例因生成式 AI 模型“幻觉”引发的侵权纠纷。

但如果你仔细读完判决,会发现这并不是一起“AI 说错了要不要赔钱”的简单案件,而是一份为生成式 AI 划清法律边界的示范判决。

一、AI 说“我赔你 10 万”,算数吗?

案件最“戏剧化”的部分,在于 AI 自己给出了一个“解决方案”:

如果生成内容有误,将向用户赔偿 10 万元。

乍一看,这几乎是一次“自动承诺”。

但法院非常明确地否定了这一点。

判决的核心结论只有一句话,却极其重要:

生成式人工智能,不具有民事主体资格,不能作出意思表示。

这意味着三层否定:

  • AI 不是人,也不是法律意义上的主体

  • AI 不能代替平台作出承诺

  • 用户不能合理信赖 AI 随机生成的“赔偿说法”

这一步,其实是在为整个社会“踩刹车”。

如果承认 AI 的输出可以构成承诺,那接下来所有“幻觉式承诺”,都会变成平台无法控制的法律风险。

这不是保护用户,而是摧毁技术工具的可用性。

二、这不是“产品责任”,而是“服务责任”

另一个关键判断,是归责原则的选择。

有一种直觉很容易出现:

AI 出错了,是不是和“有缺陷的产品”一样?

法院的回答是:不是。

原因很清楚:

  • 生成式 AI 输出的是信息服务,不是可被检测、复现、质检的实体产品

  • 内容不具有“高度危险性”,不适合套用无过错责任

  • 服务提供者对具体输出内容不具备完全控制能力

最终,法院明确适用的是民法典的一般过错责任原则。

这一步,其实是在为 AI 产业保留“呼吸空间”。

如果一上来就套用产品责任的严格标准,结果只有一个:没有人敢开放通用型生成式 AI。

三、真正的关键:平台到底要尽到什么义务?

这起案件最有价值的部分,不在结论,而在法院如何分析“注意义务”。

法院采用的是一种非常成熟、也非常现实的思路——动态系统论,并清晰划分了三层义务:

第一层:红线义务(结果责任)

对违法、有害、“有毒”信息

? 生成即违法,不问理由

第二层:认知义务(提示责任)

对 AI 的“天然不可靠性”

? 必须显著提示、反复提醒、防止误信

第三层:技术义务(合理努力)

对内容准确性

? 不要求“绝不出错”,但要求采取同行业通行技术措施

在本案中,平台已经:

  • 明示功能局限

  • 设置显著提示

  • 使用检索增强生成等技术

因此,法院认定:已尽合理注意义务,不存在过错。

这其实给行业传递了一个非常清晰的信号:

你可以不完美,但不能装成权威。

四、法院真正想说的那句话

如果只看结论,这是一场平台“胜诉”的案件;

但如果读“法官心语”,你会发现判决真正指向的,是社会整体的认知校准。

法院说得非常直白:生成式 AI 目前仍然只是“文本辅助生成器”,不是知识权威,更不是决策替代者。

这句话,其实不只是对用户说的,也是对平台、对资本、对所有“AI 万能论”的一次冷静提醒。

五、知产力的判断

在知产力看来,这起案件的意义不在于“AI 没赔钱”,而在于它完成了三件非常重要的事:

  • 没有神化 AI,也没有妖魔化 AI

  • 把风险控制在“过错判断”而非“结果恐惧”上

  • 为下一阶段的 AI 合规、产品设计、责任分配,提供了清晰坐标

真正成熟的规则,从来不是“谁都别碰”,而是:你可以做,但要知道边界在哪里。

这起判决,正是在为生成式人工智能铺设一条既能前进、也不会失控的法治轨道。

(本文仅代表作者观点,不代表知产力立场)

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
评论区

    下一篇

    2025年度十大著作权事例点评 | 蒋舸:人工智能版权政策进入精细化构建的新阶段

    2026-01-28 07:57:00