|
【免费送三本】豆瓣8.2 复旦NLP团队出品:《大规模语言模型:从理论到实践》 NLPPaperWeekly · 公众号 · · 2 天前 · 访问文章快照 |
|
|
比Transformer更快更省,Mamba终于卷到网络领域了 NLPPaperWeekly · 公众号 · · 2 周前 · 访问文章快照 |
|
|
这样寻找人工智能论文创新点,好像也不难! NLPPaperWeekly · 公众号 · · 2 周前 · 访问文章快照 |
|
|
ResearchAgent: 利用agent自动生成论文idea,再也不用担心做科研没有思路了 NLPPaperWeekly · 公众号 · · 3 周前 · 访问文章快照 |
|
|
LLM4CS:一种利用LLM提升多轮会话检索的效果的方案 NLPPaperWeekly · 公众号 · · 1 月前 · 访问文章快照 |
|
|
全网最全!ChatGPT辅助论文写作!一天一篇,利用好GPT,科研小白秒变科研大佬! NLPPaperWeekly · 公众号 · · 1 月前 · 访问文章快照 |
|
|
多agent思想显著提升小模型工具调用能力 NLPPaperWeekly · 公众号 · · 1 月前 · 访问文章快照 |
|
|
UC Berkeley |RAFT: 对不相关的RAG检索结果进行建模 NLPPaperWeekly · 公众号 · · 2 月前 · 访问文章快照 |
|
|
EMNLP 2023|利用LLM合成数据训练模型有哪些坑? NLPPaperWeekly · 公众号 · · 2 月前 · 访问文章快照 |
|
|
只要捞“偏门”,篇篇都是顶刊! NLPPaperWeekly · 公众号 · · 2 月前 · 访问文章快照 |
|
|
LLMLingua|您有一份prompt压缩20倍的方案请查收 NLPPaperWeekly · 公众号 · · 2 月前 · 访问文章快照 |
|
|
符尧:仅靠数据工程我能将LLM的上下文检索能力拓展到128K NLPPaperWeekly · 公众号 · · 2 月前 · 访问文章快照 |
|
|
符尧:仅靠数据工程我能将LLM的上下文检索能力拓展到128K NLPPaperWeekly · 公众号 · · 3 月前 · 访问文章快照 |
|
|
一文搞懂大模型RLHF NLPPaperWeekly · 公众号 · · 3 月前 · 访问文章快照 |
|
|
上海人工智能研究院推出Latte,开源版视频Diffusion Transformer来了吗? NLPPaperWeekly · 公众号 · · 3 月前 · 访问文章快照 |
|
|
【手撕LLM+RLHF】大模型通关指南 NLPPaperWeekly · 公众号 · · 3 月前 · 访问文章快照 |
|
|
LLMLingua|您有一份prompt压缩20倍的方案请查收 NLPPaperWeekly · 公众号 · · 3 月前 · 访问文章快照 |
|
|
探索Sora背后秘密(1):结合OpenAI Sora技术报告来看其能力和技术点 NLPPaperWeekly · 公众号 · · 3 月前 · 访问文章快照 |
|