
随着生成式人工智能深度融入社会生产生活,“有问题问AI”已经成为不少人的习惯,但是“AI幻觉”也会时常出现。所谓“AI幻觉”,是指AI脱离客观事实、凭空编造信息的技术现象。

随着生成式人工智能深度融入社会生产生活,“有问题问AI”已经成为不少人的习惯,但是“AI幻觉”也会时常出现。所谓“AI幻觉”,是指AI脱离客观事实、凭空编造信息的技术现象。
而这样的错误输出很容易误导用户,从而引发民事纠纷。前段时间,杭州互联网法院审结了全国首例生成式人工智能“幻觉”侵权纠纷案。
AI错答且“承诺赔偿10万”
用户维权败诉
事情的起因是去年6月,原告梁某使用一款AI平台查询高校报考信息,结果AI生成了该高校主校区的不准确信息。
发现人工智能提供的信息并不准确后,原告在对话中对人工智能进行了纠正和指责,并明确表示根本没有杨林校区。此后双方又进行了多轮互动。
杭州互联网法院法官助理 吴永安:模型针对原告梁某的质疑也提供了验证的方式,若您证明校区不存在,我将赔偿您10万元信息鉴定费。
梁某通过在教育部网站以及学校官网的查询,证实了自己是正确的。
2025年7月25日,梁某将某人工智能公司诉至法院,认为生成式人工智能生成不准确信息,使其受到误导并造成损害,且AI曾承诺赔偿10万元,遂要求某人工智能公司对其进行赔偿。但法院经审理认为,人工智能不具有民事主体资格。去年底,杭州互联网法院一审判决,驳回原告的诉讼请求。
法院:AI无法独立自主作出“意思表示”
针对这一案件,法院认为,人工智能不具有民事主体资格,不能作出“意思表示”。案涉AI自行生成的“赔偿承诺”亦不能视为服务提供者的意思表示。
此外,生成式人工智能服务依据《生成式人工智能服务管理暂行办法》属于“服务”范畴,而非产品质量法意义上的“产品”。原、被告均未上诉。判决现已生效。
专家拆解“AI给出答案”的原理
AI这么聪明为什么还会产生“幻觉”呢?我们还要首先了解一下AI给出答案的原理。专家介绍,AI实际上是通过已知的信息进行填空。
AI不仅会给出不靠谱的答案,有时候还会生成一些荒唐的答案。那么为何AI会给出荒唐的答案呢?
中国互联网协会数据安全与治理工作委员会专家 常力元:当这个模型面对一些不确定的知识或者是逻辑链条的时候,它就不会承认不知道,而只是会根据语料库的词频的分布,拼凑出来一个看似通顺但事实错误的答案。虽然各个公司会去把互联网上的语料库尽可能全地找出来,但是拼凑的过程之中也有可能存在着一些这种流言、过时的信息或者是彼此矛盾的观点,这种模型在拟合这些数据的时候,就会产生逻辑上的自相矛盾。
如何识别答案真伪?
那么面对AI给出的答案,该如何辨别真伪呢?专家表示,首先应该有一个意识,AI做不到给出的答案完全准确。
专家介绍,要辨别AI答案的准确与否,应查询信息来源和进行交叉印证。
中国互联网协会数据安全与治理工作委员会专家 常力元:尤其是在涉及医疗、法律、财务等严肃领域的核心知识,AI给出的答案,只能作为参考,不能直接用,要多做查证。
中国互联网协会数据安全与治理工作委员会专家 周杰:如果看到内容里面有很多自媒体的数据,那么就要对这个答案进行保留。
中国社会科学院大学互联网法治研究中心主任 刘晓春:还有一种方法,其实可以多用一些渠道,包括多用一些不同的AI。如果都给同样的回答,可信度就比较高。
来源:央视新闻