AI说错话,要不要赔钱?
作者 | wwz
生成式人工智能,正在成为新的“基础设施”。
它被用来写方案、查信息、给建议,甚至参与越来越多原本需要人类判断的决策场景。
但问题也随之而来:当 AI 一本正经地“说错话”,而且说得极其像真的时候,责任该由谁来承担?
杭州互联网法院近日审结的这起案件,是全国首例因生成式 AI 模型“幻觉”引发的侵权纠纷。
但如果你仔细读完判决,会发现这并不是一起“AI 说错了要不要赔钱”的简单案件,而是一份为生成式 AI 划清法律边界的示范判决。
一、AI 说“我赔你 10 万”,算数吗?
案件最“戏剧化”的部分,在于 AI 自己给出了一个“解决方案”:
如果生成内容有误,将向用户赔偿 10 万元。
乍一看,这几乎是一次“自动承诺”。
但法院非常明确地否定了这一点。
判决的核心结论只有一句话,却极其重要:
生成式人工智能,不具有民事主体资格,不能作出意思表示。
这意味着三层否定:
AI 不是人,也不是法律意义上的主体
AI 不能代替平台作出承诺
用户不能合理信赖 AI 随机生成的“赔偿说法”
这一步,其实是在为整个社会“踩刹车”。
如果承认 AI 的输出可以构成承诺,那接下来所有“幻觉式承诺”,都会变成平台无法控制的法律风险。
这不是保护用户,而是摧毁技术工具的可用性。
二、这不是“产品责任”,而是“服务责任”
另一个关键判断,是归责原则的选择。
有一种直觉很容易出现:
AI 出错了,是不是和“有缺陷的产品”一样?
法院的回答是:不是。
原因很清楚:
生成式 AI 输出的是信息服务,不是可被检测、复现、质检的实体产品
内容不具有“高度危险性”,不适合套用无过错责任
服务提供者对具体输出内容不具备完全控制能力
最终,法院明确适用的是民法典的一般过错责任原则。
这一步,其实是在为 AI 产业保留“呼吸空间”。
如果一上来就套用产品责任的严格标准,结果只有一个:没有人敢开放通用型生成式 AI。
三、真正的关键:平台到底要尽到什么义务?
这起案件最有价值的部分,不在结论,而在法院如何分析“注意义务”。
法院采用的是一种非常成熟、也非常现实的思路——动态系统论,并清晰划分了三层义务:
第一层:红线义务(结果责任)
对违法、有害、“有毒”信息
? 生成即违法,不问理由
第二层:认知义务(提示责任)
对 AI 的“天然不可靠性”
? 必须显著提示、反复提醒、防止误信
第三层:技术义务(合理努力)
对内容准确性
? 不要求“绝不出错”,但要求采取同行业通行技术措施
在本案中,平台已经:
明示功能局限
设置显著提示
使用检索增强生成等技术
因此,法院认定:已尽合理注意义务,不存在过错。
这其实给行业传递了一个非常清晰的信号:
你可以不完美,但不能装成权威。
四、法院真正想说的那句话
如果只看结论,这是一场平台“胜诉”的案件;
但如果读“法官心语”,你会发现判决真正指向的,是社会整体的认知校准。
法院说得非常直白:生成式 AI 目前仍然只是“文本辅助生成器”,不是知识权威,更不是决策替代者。
这句话,其实不只是对用户说的,也是对平台、对资本、对所有“AI 万能论”的一次冷静提醒。
五、知产力的判断
在知产力看来,这起案件的意义不在于“AI 没赔钱”,而在于它完成了三件非常重要的事:
没有神化 AI,也没有妖魔化 AI
把风险控制在“过错判断”而非“结果恐惧”上
为下一阶段的 AI 合规、产品设计、责任分配,提供了清晰坐标
真正成熟的规则,从来不是“谁都别碰”,而是:你可以做,但要知道边界在哪里。
这起判决,正是在为生成式人工智能铺设一条既能前进、也不会失控的法治轨道。
(本文仅代表作者观点,不代表知产力立场)


















