在构建RAG(检索增强生成,Retrieval-Augmented Generation)系统时,想要实现“问有所答、答之有理”,一份高质量的嵌入模型远比你想象的重要。

而在一些专业领域,比如医疗、法律或金融,通用嵌入模型往往难以捕捉专业术语的细微差别,检索表现就会大打折扣。此时,嵌入微调(Embedding Fine-tuning)成为提升系统准确率的关键一步。

本篇文章将为你详细拆解:为何嵌入微调是RAG系统的“质变点”?从什么样的数据集起步?选用哪种损失函数更合适?是否有更轻量高效的模型可以使用?

读完这篇,你将获得一整套面向特定领域的嵌入微调实操指南。

嵌入(Embedding)可以看作是将文本转化为向量的“翻译器”,它把语义关系编码成多维空间中的位置。相似的句子在空间中相距更近,不相似的则更远。这种机制支撑着文本分类、语义搜索、问答系统等核心任务,也为RAG提供了“检索基础设施”。

img

而嵌入模型的效果,取决于它是否“懂行”。一个通用模型也许能理解“买机票”和“订酒店”之间的关系,但未必能区分“类风湿性关节炎”与“系统性红斑狼疮”的细微差异。嵌入微调的目的,就是用领域内的专业语料重新训练模型,让它“入行”,从而精准建模你关心的知识边界。

一个残酷的真相浮出水面:‌****未经微调的嵌入模型,就像拿着手术刀的外科医生突然改行修家电****‌——看似智能,实则处处“外行”。

img

**我们在这篇文章中将以 bge-base-en-v1.5 模型为例,**它由北京人工智能研究院(BAAI)发布,支持轻量部署,适合计算资源有限的场景。该模型在多项嵌入任务中表现优异,是当前开源领域的主力选择之一。

img

在数据集构建方面,你可以采用以下几种格式:

  • 正向配对:如问答对、定义与术语,适用于对比损失或余弦相似度损失;

    {"query": "What is hypertension?", "answer": "Hypertension is high blood pressure."}{"query": "How to treat diabetes?", "answer": "Treatment includes insulin and dietary control."}{"query": "Symptoms of anemia?", "answer": "Fatigue and pale skin are common symptoms."}{"query": "Causes of migraine?", "answer": "Stress and hormonal changes are common causes."}{"query": "What is ECG?", "answer": "ECG is a test that records the electrical activity of the heart."}
    
  • 三元组(anchor, positive, negative):适用于triplet loss,引导模型拉近正例、远离负例;

    {"anchor": "What is hypertension?", "positive": "Hypertension is high blood pressure.", "negative": "Diabetes is managed with insulin."}{"anchor": "Symptoms of anemia?", "positive": "Fatigue and pale skin are common symptoms.", "negative": "Fever is a symptom of infection."}
    
  • 相似度评分:为每对句子打分,引导模型学习相似度的连续分布;

  • 类别标签:适合用作分类任务的辅助监督信号。

我们建议从问答对数据集入手,简单且直观,适合大多数垂直领域。

img

在训练过程中,损失函数(Loss Function)决定了模型如何“学会相似性”。

三元组损失(Triplet Loss)适合构建相对关系;对比损失(Contrastive Loss)适合引导模型对正负样本分界清晰;而余弦相似度损失(Cosine Similarity Loss)则更适合数值回归场景。

我们首先安装必要的库。我们将使用datasetssentence-transformersgoogle-generativeai来处理数据集、嵌入模型和文本生成。

apt-get -qq install poppler-utils tesseract-ocrpip install datasets sentence-transformers google-generativeaipip install -q --user --upgrade pillowpip install -q unstructured["all-docs"] pi_heifpip install -q --upgrade unstructuredpip install --upgrade nltk

我们将使用unstructured库从 PDF 文件中提取文本和表格。

img

使用process_text_chunks函数,我们使用 Gemini 模型为每个文本块生成 QA 对。

img

接下来,我们将生成的 QA 对从 CSV 文件加载到 HuggingFace 数据集中。我们确保数据格式正确以进行微调。

img

我们从 HuggingFace 加载BAAI/bge-base-en-v1.5模型,确保选择合适的执行设备(CPU 或 GPU)。

img

这里,我们配置了套娃损失函数,指定用于截断嵌入的维度。

img

内部损失函数MultipleNegativesRankingLoss有助于模型生成适合检索任务的嵌入。

我们使用SentenceTransformerTrainingArguments来定义训练参数。这包括输出目录、训练轮数、批大小、学习率和评估策略。

img

我们创建一个评估器来衡量模型在训练过程中的性能。评估器使用InformationRetrievalEvaluator对 Matryoshka 损失中的每个维度进行模型检索性能评估。

img

img

img

img

img

完成微调后,你会获得一个真正“领域通”的嵌入模型。它不仅能显著提升RAG系统的检索准确率,还能在摘要、问答、信息提取等任务中获得更可靠的结果。

而最棒的一点是:将微调后的嵌入结果传递给大语言模型(LLM)非常简单!因为嵌入后的JSON本身就是结构化、干净的数据格式,GPT、DeepSeek、文心一言等主流模型都能直接使用,无需复杂转换。这种结构化嵌入还能帮助LLM更精准地聚焦语义核心,让每一次调用都更高效、更靠谱。

嵌入微调,不仅是“模型性能优化”,更是一种让知识与模型真正对齐的方式。别再把通用嵌入模型硬塞进RAG管道,也别再忽视数据结构对模型表现的影响——当你在处理“专业知识”的时候,你的模型也应该是“专业选手”。

如果你正准备为自己的垂直领域打造一套更聪明的知识系统,现在,就是重新训练你的向量理解力的最佳时机。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

更多推荐