看啥推荐读物
专栏名称: 老刘说NLP
老刘,NLP开源爱好者与践行者。主页:https://liuhuanyong.github.io。老刘说NLP,将定期发布语言资源、工程实践、技术总结等内容,欢迎关注。
今天看啥  ›  专栏  ›  老刘说NLP

再看大模型事实性的界定、错误的起因、评估及前沿缓解方案:Survey on Factuality in LLMS

老刘说NLP  · 公众号  ·  · 2023-10-13 15:48
今天是2023年10月13日,星期一。北京,天气晴。随着大型语言模型在不同领域的应用,其输出结果的可靠性和准确性变得至关重要,我们在之前面有多次说过关于幻觉评估的问题。最近的工作《Survey on Factuality in Large Language Models:Knowledge, Retrieval and Domain-Specificity》将"事实性问题"定义为LLM生成与既定事实不一致内容的概率,总结了存储和处理事实的机制,寻找造成事实错误的主要原因,并介绍了评估LLM事实性的方法,包括关键指标、相关基准,以及利用外部数据的检索增强RAG。该工作是个很好的材料,本文对其中一些关键点进行说明,供大家一起参考。一、先看什么是大模型的事实性事实性问题是指大型语言模型有可能产生与事实相悖的内容。这里的"事实信息"包括世界知识、常识和来自可靠来源的明确信息,如维基百科或特定领域的教科书,表1中 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照