多位专家聚焦讨论:人工智能幻觉,怎么破?
AI幻觉的定义与成因
中国信息通信研究院人工智能研究所安全与具身智能部主任石霖介绍,业内所说的AI幻觉,主要指大模型生成的相关内容与现实世界或者用户输入不一致的现象,本质上是由于大模型的训练设计缺陷、数据的不足以及架构的偏差等因素造成的。更通俗来讲,大模型的底层原理基于概率内生机制,生成过程中倾向于选择训练数据中出现频率高的表达方式,若其中一个词产生错误,AI不会自我纠正,导致错误进一步扩大。
AI幻觉的分类
总体上AI幻觉可分为三类:
事实性幻觉:公众反馈最多的AI编造虚假事件、引出不存在的知识、进行违反常识的推断等。
忠实性幻觉:主要由于当前大模型的注意力机制,导致不能维持超长文本的一致性,表现出上下文自我矛盾,比如AI先肯定一个观点,接下来的回答又否定同一个观点,出现上下不一致的现象。
跨模态不一致:随着多模态的应用,AI在文生图等情况下可能出现相关幻觉问题。
AI幻觉带来的问题与危害
相关调研显示,在公众认为使用AI应用过程中有哪些突出问题的问卷调查中,反馈最多的是内容不准确,或含虚假信息,占比高达42.2%。《自然》杂志统计显示,各类聊天在提及参考文献时的出错率相当惊人。AI幻觉的危害与应用场景密切相关:
一般性场景:若把AI作为聊天工具,幻觉问题后果不严重,类似和朋友聊天时的吹牛成分,无伤大雅。
特定专业领域:若把AI生成的错误结果不加识别地用于法院判决、医疗诊断等场合,危害很大。用AI进行医疗诊断,出现幻觉问题可能导致严重的医疗事故。此外,随着大模型普及,AI用于生成软件、算法、程序甚至决策信号时,影响更大。比如自动驾驶技术中,人工智能出现幻觉可能引发交通事故。
专家提出的应对方案
技术手段缓解
石霖强调,目前的大模型架构不可能完全消除幻觉,只能通过各种技术手段进行缓解。例如360集团创始人周鸿祎提到,在医疗、法律、金融等对准确性要求高的领域,“幻觉”虽然可能出错,但可以利用技术手段,如RAG(检索增强生成)技术,通过比对专业知识库、网络实时信息等方式予以矫正。
适度包容与柔性监管
周鸿祎建议借鉴避风港原则成功经验,对大模型以及相关的产品和服务实施柔性监管,适度包容大模型的幻觉,对于幻觉导致的一般性失误,避免直接关停下架,给予企业自我纠正的机会,促进企业大胆创新、放手竞争,争取让更多企业复制DeepSeek的成功。同时呼吁各界共同努力,构建更加完善的大模型应用安全治理体系,在保障安全的前提下最大化地释放大模型技术的潜力。
正确看待与合理应用
中国政法大学数据法治研究院教授、联合国人工智能高级别咨询机构专家张凌寒指出,大模型的幻觉问题引发严重关注,主要在于人们将其应用于不适宜的领域。公众对大模型生成内容及其功能存在过度幻想,实际上人类本就不应完全依赖人工智能大模型。在文化创意产业等领域,AI幻觉的影响相对较小,因其本就倚重丰富的想象力;而在对精准性要求极高的行业,应谨慎使用AI或对其输出结果进行严格审核