专栏名称: IT大咖说
大咖干货,不再错过。 让不在大会现场的程序猿、攻城狮也能体验现场的精彩瞬间。
目录
今天看啥  ›  专栏  ›  IT大咖说

使用 Llama3 和 Ollama 改进了 RAG

IT大咖说  · 公众号  · 科技自媒体  · 2024-04-22 20:00
    

文章预览

在本文中,我们将了解如何利用 Llama-3 ,实现具有完全本地基础设施的高级 RAG。 本文为使用 的高级 RAG 的第一天实施提供了第一手指南。 ◆ 介绍: 在本文中,我们将创建一个高级 RAG,它将根据作为管道输入给出的研究论文来回答用户查询。用于构建该管道的技术堆栈如下。 Ollama 嵌入模型 mxbai-embed-large Ollama 量化Llama-3 8b 模型 本地托管的 Qdrant 向量数据库。 通过这种设置,明显的两件事是所产生的成本绝对为 0,并且信息高度安全和私密。 ◆ HyDE 是什么? HyDE(即假设文档嵌入)源自Gau 等人在 2022 年论文中提出的创新工作。标题为“无需相关标签的精确零射击密集检索”。这项研究的主要目标是增强依赖于语义嵌入相似性的零样本密集检索。所提出的解决方案 HyDE 通过两步方法运行。 在初始步骤(称为“步骤 1”)中,语言模型(具体以 GPT-3 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览