|
如何提升LLMs:CCoT 待字闺中 · 公众号 · 程序员 · 4 月前 · 访问文章快照 |
|
如何理解CoT对 LLMs 的提升 待字闺中 · 公众号 · 程序员 · 4 月前 · 访问文章快照 |
|
LLMs的魔法能力来自哪里 待字闺中 · 公众号 · 程序员 · 4 月前 · 访问文章快照 |
|
采用RLAIF增强小型 LLMs:Starling-7B 待字闺中 · 公众号 · 程序员 · 4 月前 · 访问文章快照 |
|
通过合成数据提升LLMs:Orca2 待字闺中 · 公众号 · 程序员 · 4 月前 · 访问文章快照 |
|
如何微调LLMs:DPO 待字闺中 · 公众号 · 程序员 · 4 月前 · 访问文章快照 |
|
如何提升LLMs:CoK 待字闺中 · 公众号 · 程序员 · 4 月前 · 访问文章快照 |
|
如何用好LLMs:大型搜索模型 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
Q*假设:实现通用人工智能? 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
如何看待大型语言模型的Prompt 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
如何提升LLMs:Self-Refine 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
如何提升LLMs:Step-Back Prompting 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
更强的小型LLM:Zephyr-7B 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
为什么LLMs革命的领导者不是Google 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
如何使用LLMs:Chain of Verification (CoVe) 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
NVIDIA研究:具有长上下文LLMs的RAG 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
如何更好的使用LLMs:类比推理 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
如何更好的使用 LLMs:Self-RAG 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
最强的小型LLM——Mistral 7B? 待字闺中 · 公众号 · 程序员 · 5 月前 · 访问文章快照 |
|
如何借助LLMs构建支持文本、表格、图片的知识库 待字闺中 · 公众号 · 程序员 · 6 月前 · 访问文章快照 |