看啥推荐读物
专栏名称: ArronAI
专注于AI算法,尤其是前沿算法的理论和实践,包括GAN网络、强化学习、迁移学习、数据挖掘、机器学习、深度学习,推荐系统的相关论文分享和代码解读,欢迎AI爱好者加入,互相学习,共同进步,为加速AI发展事业贡献自己的一份力。
今天看啥  ›  专栏  ›  ArronAI

LLM之幻觉(一):大语言模型幻觉解决方案综述

ArronAI  · 公众号  ·  · 2023-11-06 17:54
论文题目:《Cognitive Mirage: A Review of Hallucinations in Large Language Models》论文链接:https://arxiv.org/abs/2309.06794v1论文代码:https://github.com/hongbinye/cognitive-mirage-hallucinations-in-llms一、幻觉介绍       由ChatGPT带来的大模型时代,国内外各大厂家都在陆续推出自己的大模型,然而目前大模型都存在一个普遍的现象就是:幻觉。        幻觉的基本定义:大模型生成看似合理的内容,其实这些内容是不正确的或者是与输入Prompt无关,甚至是有冲突的现象,幻觉示例如下图所示:       在准确率要求非常高的场景下幻觉是不可接受的,比如医疗领域、金融领域等。二、幻觉产生的原因      论文认为产生幻觉的主要原因有预训练数据收集、知识GAP和大模型优化过程三个方面。数据收集:预训练数据:大模型的知识和能力主要来自与预训练数据,如果预训练数据 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照