针对AI幻觉带来的挑战,专家们提出了多种应对策略和建议:
1. 提高数据质量:通过引入高质量的训练数据来矫正或降低AI幻觉。这些高质量数据包括原生数据和合成数据。大模型厂商应注重选择高质量数据,并利用合成数据训练大模型。
2. 技术手段缓解:采用RAG检索增强方式,引入知识图谱或构建因果推断模型,在一定程度上利用核验方式缓解AI幻觉,提高输出的可靠性。加入真实性核验插件,通过联网实时核验。
3. 建立评估评测体系:在行业层面建立幻觉评估的评测体系,优先选择幻觉低的模型作为基座。建立幻觉联防联控机制,建立辟谣网站,积累负面样本。
4. 风险分级分类:从合规层面探索对幻觉风险进行分级分类,对可能造成灾难性、敏感性、涉及重大安全的幻觉风险划清级别,并采取措施避免AI幻觉引发重大经济、社会和公众安全侵害。
5. 生成内容标识监管:引入必要的机制,如创建白名单知识库,建立安全可信、动态更新的信源和数据知识库。通过专项行动定期清理幻觉数据,对跨境数据进行审查和评测。
6. 人类掌控决策权:在金融、医疗等关乎重大利益的领域,最终的审核与决策应由人类掌控,而非将决策权完全交给AI。深入探讨是否应在严谨与精准行业使用AI,以及是否应无条件信任AI。
7. 区分人类与机器生成内容:治理层面应着重区分人类与机器生成内容,并加强内容把关、严控及评价。监管部门已要求对人工智能生成合成内容进行标识,虽不涉及具体内容质量判断,但能明确指出哪些内容由人工智能生成。
8. 中国在人工智能内容治理领域的领先地位:中国在人工智能内容治理方面已经形成成熟方案,为全球提供了制度借鉴。《互联网信息服务深度合成管理规定》率先将人工智能生成标识设为强制性规定。
总之,应对AI幻觉带来的挑战需要从技术、合规、监管等多个层面入手。通过提高数据质量、技术手段缓解、建立评估评测体系、风险分级分类等措施,可以在一定程度上降低AI幻觉的危害。同时,在关键领域应由人类掌控决策权,并加强内容把关和监管。中国在人工智能内容治理方面已走在前列,为全球提供了有益借鉴。