专栏名称: 新智元
智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
今天看啥  ›  专栏  ›  新智元

斯坦福新研究:RAG能帮助LLM更靠谱吗?

新智元  · 公众号  · AI  · 2024-05-29 12:59
    

文章预览

   新智元报道   编辑:Mindy 【新智元导读】 斯坦福大学的研究人员研究了RAG系统与无RAG的LLM (如GPT-4)相比在回答问题方面的可靠性。研究表明,RAG系统的事实准确性取决于人工智能模型预先训练的知识强度和参考信息的正确性。 大语言模型(LLM)虽然功能强大,但容易出现幻觉。 此外,它们受限于其训练语料库中包含的知识,因此无法回答有关近期事件或公开受限信息的查询。 为了解决上述问题,检索增强生成(RAG)是一种常用的框架,它在LLM的提示中提供相关检索内容,获得相关信息的参考文档或数据库,并可以显著提高模型的准确性。 大多数商业LLM,如ChatGPT、Gemini和Perplexity.ai,已经在它们的Web界面中采用了某种版本的RAG。 例如,ChatGPT使用Bing搜索,而Gemini访问Google搜索结果。 但当语言模型内部知识与通过RAG提供的信息之间的不一致 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览