主要观点总结
本文介绍了大型语言模型(LLM)的结构、参数量、显存占用、存储需求以及微调过程中的关键技术点。包括模型结构、参数计算、模型调试、数据构造、模型微调、强化学习等方面的内容。
关键观点总结
关键观点1: 模型结构
LLM模型基本选择以Decoder模块堆叠N层组成的网络结构。
关键观点2: 参数计算
包括模型参数量和显存占用的计算方式,以及存储需求。
关键观点3: 模型调试
包括使用理想的数据构造和微调方法优化模型,解决任务效果问题。
关键观点4: 数据构造
建立对生成数据质量的把控,通过规则或者LLM大模型来做后置的数据验证。
关键观点5: 模型微调
包括使用LoRA等参数效率更高的微调方法,以及在理想的数据上进行强化学习训练。
关键观点6: 工具使用
介绍了一些微调实践流程以及使用的工具平台,如理想ab工具、部署在whale上的开源模型、训练平台的选择和任务提交等。
关键观点7: 测试集数据分析
介绍如何在模型微调后,在测试集上进行效果评估,包括定义评价指标和发现优化问题等。
文章预览
本文详细介绍了大型语言模型(LLM)的结构、参数量、显存占用、存储需求以及微调过程中的关键技术点,包括Prompt工程、数据构造、LoRA微调方法等。 微调相关知识介绍 ▐ 1.1. 认识大模型 在介绍LLM的微调知识前,我们先具象的认识下大模型长什么样子,包括模型结构、参数量、精度、显存占用。 1.1.1. 模型结构 《Attention Is All You Need》是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型,叫 Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN。 可以看到Encoder包含一个Muti-Head Attention模块,是由多个Self-Attention组成,而Decoder包含两个Muti-Head Attention。Muti-Head Attention上方还包括一个 Add & Norm 层,Add 表示残差连接 (Residual Connection) 用于防止网络退化,Norm 表示 Layer Normalization,用于对每一层的激活值进行归一化
………………………………