手把手教你用LLaMA-Factory微调Qwen3大模型,全程干货,小白也能轻松学会!!
手把手教你用LLaMA-Factory微调Qwen3大模型,全程干货,小白也能轻松学会!!
前言
思路: 在AutoDL云服务器上安装LLaMA-Factory环境,然后微调Qwen3-4B大模型
一、环境准备
1)购买AutoDL云主机,3090显卡的即可(如果本地有GPU机器,请用自己的),我购买AutoDL时,选择了PyTorch
2)安装Anaconda(AutoDL上已默认安装miniconda3)
Anacoda官网:https://www.anaconda.com/
根据你自己的系统下载对应版本
安装完成后,打开终端(Linux/macOS)或Anaconda Prompt(Windows),输入以下命令创建一个新环境:
(AutoDL上需要做以下操作)
conda create -n llama_factory python=3.10 conda activate llama_factory
3)安装Git(AutoDL已安装)
-
Linux:在终端输入:
sudo apt-get install git
-
-
Windows:下载并安装Git for Windows
-
macOS:在终端输入:
brew install git(需先安装Homebrew)
-
4)安装cuda(AutoDL已安装)
参考: https://help.aliyun.com/zh/egs/user-guide/install-a-gpu-driver-on-a-gpu-accelerated-compute-optimized-linux-instance
二、下载LLaMA-Factory
需要从GitHub下载,使用git命令下载:
git clone https://github.com/hiyouga/LLaMA-Factory.gitcd LLaMA-Factory
三、安装依赖
在LLaMA-Factory目录下安装所需的Python包
pip install -e .[metrics]如果使用GPU,确保安装支持CUDA的PyTorch:
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118说明: 根据您的CUDA版本调整cu118,如11.7用cu117,如果你使用的是AutoDL,CUDA版本应该是128
四、下载Qwen3-4b大模型
在modelscope社区下载,安装魔搭(modelscope)模块
pip install modelscope下载模型
mkdir -p /models/modelscope download --model Qwen/Qwen3-4B --local_dir /models/Qwen3-4B
五、准备数据集(alpaca格式)
先制作自己的数据集,然后将数据集文件放到LLaMA-Factory/data目录,例如my_data.json,然后编辑data/dataset_info.json,添加:
"my_dataset": { "file_name": "alpaca_zh_demo.json" }说明:alpaca_zh_demo.json是llama factory内置的一个测试数据集
六、微调前的测试
微调之前可以先加载初始模型做推理测试
CUDA_VISIBLE_DEVICES=0 llamafactory-cli webchat \ --model_name_or_path /models/Qwen3-4B \ --template qwen它会监听7860端口,如果使用AutoDL,还需要配置自定义服务:
1)首先要实名认证
2)自定义服务
控制台 --> 容器实例 --> 快捷工具
七、启动微调
微调之前,先把之前的llamafactory-cli命令结束掉,然后执行下面命令,将webui打开,监听7860端口:
llamafactory-cli webui浏览器访问 http://ip:7860, AutoDL需要做自定义服务
八、模型推理与测试
微调后的模型可以用WebUI测试:
CUDA_VISIBLE_DEVICES=0 llamafactory-cli webchat \ --model_name_or_path /models/Qwen3-4B \ --adapter_name_or_path saves/Qwen3-4B-Instruct/lora/my_finetune \ --template qwen浏览器访问: http://localhost:7860
如果web方式访问不方便,也可以终端形式:
CUDA_VISIBLE_DEVICES=0 llamafactory-cli chat \ --model_name_or_path /models/Qwen3-4B \ --adapter_name_or_path saves/Qwen3-4B-Instruct/lora/my_finetune \ --template qwen
九、导出模型
如果需要分享模型,导出为Hugging Face格式:
llamafactory-cli export \ --model_name_or_path /models/Qwen3-4B \ --adapter_name_or_path saves/Qwen3-4B-Instruct/lora/my_finetune \ --template qwen \ --finetuning_type lora \ --export_dir /models/Qwen3-4B-Aminglinux
最后
为什么要学AI大模型
当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!
DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。
与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】

AI大模型系统学习路线
在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。
但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。
AI大模型入门到实战的视频教程+项目包
看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
海量AI大模型必读的经典书籍(PDF)
阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
600+AI大模型报告(实时更新)
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
AI大模型面试真题+答案解析
我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】

更多推荐
所有评论(0)