专栏名称: 大淘宝技术
淘系技术官方账号
目录
今天看啥  ›  专栏  ›  大淘宝技术

大模型微调知识与实践分享

大淘宝技术  · 公众号  · 程序员  · 2025-06-04 15:56
    

主要观点总结

本文介绍了大型语言模型(LLM)的结构、参数量、显存占用、存储需求以及微调过程中的关键技术点。包括模型结构、参数计算、模型调试、数据构造、模型微调、强化学习等方面的内容。

关键观点总结

关键观点1: 模型结构

LLM模型基本选择以Decoder模块堆叠N层组成的网络结构。

关键观点2: 参数计算

包括模型参数量和显存占用的计算方式,以及存储需求。

关键观点3: 模型调试

包括使用理想的数据构造和微调方法优化模型,解决任务效果问题。

关键观点4: 数据构造

建立对生成数据质量的把控,通过规则或者LLM大模型来做后置的数据验证。

关键观点5: 模型微调

包括使用LoRA等参数效率更高的微调方法,以及在理想的数据上进行强化学习训练。

关键观点6: 工具使用

介绍了一些微调实践流程以及使用的工具平台,如理想ab工具、部署在whale上的开源模型、训练平台的选择和任务提交等。

关键观点7: 测试集数据分析

介绍如何在模型微调后,在测试集上进行效果评估,包括定义评价指标和发现优化问题等。


文章预览

本文详细介绍了大型语言模型(LLM)的结构、参数量、显存占用、存储需求以及微调过程中的关键技术点,包括Prompt工程、数据构造、LoRA微调方法等。 微调相关知识介绍 ▐    1.1. 认识大模型 在介绍LLM的微调知识前,我们先具象的认识下大模型长什么样子,包括模型结构、参数量、精度、显存占用。 1.1.1. 模型结构 《Attention Is All You Need》是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型,叫 Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN。 可以看到Encoder包含一个Muti-Head Attention模块,是由多个Self-Attention组成,而Decoder包含两个Muti-Head Attention。Muti-Head Attention上方还包括一个 Add & Norm 层,Add 表示残差连接 (Residual Connection) 用于防止网络退化,Norm 表示 Layer Normalization,用于对每一层的激活值进行归一化 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览