LangChain Chat和Agent基础使用

1 LLM 继承BaseChatModel或者SimpleChatModel 设计理念:专注于模型层面,不要预设系统提示词,工具调用时仅输出ToolMessage而不是在内部调用工具 2 Chain chain = prompt | llm | output_parser print(chain.invoke(xxx)) """本质上就是 v1 = prompt.in

大模型训练方案综述

本文以清晰直白的方式,系统梳理了大语言模型(LLM)从基础训练到最终对齐的完整技术流程,核心围绕预训练、微调、参数高效微调、偏好对齐四大关键阶段展开,逐一拆解各类技术的定义、核心逻辑与差异。 预训练:Pre-Training,无监督学习,只有text列;还有个CPT继续预训练,用于继续吸收领域知识 微调:Fine-Tuning,一般情况下LLM微调都是监督微调SFT(Supervised fine

Transformer三大架构对比

架构 训练目标 视角 核心能力 Encoder-only 猜被遮住的词(填空) 双向 理解、分类、抽取 Decoder-only 猜下一个词(续写) 单向左→右 生成、对话、创作 Encoder-Decoder 输入→输出(翻译) 双向理解 + 单向生成 转换、摘要、翻译 1 Encoder-only(BERT 系) 训练任务:MLM(掩码语言模型) 做法:遮住一段文本里的一些 token,让模型

通俗解释机器学习中的召回率、精确率、准确率

通俗解释机器学习中的召回率、精确率、准确率,一文让你一辈子忘不掉这两个词 赶时间的同学们看这里:提升精确率是为了不错报、提升召回率是为了不漏报 先说个题外话,暴击一下乱写博客的人,网络上很多地方分不清准确率和精确率,在这里先正确区分一下精确率和准确率,以及他们的别称 添加图片注释,不超过 140 字(可选) 切入正题 很多人分不清召回率和精确率的区别,即使记住了公式,过段时间还是会忘掉,这里我会完