OpenClaw配置文件详解

0 基础配置 日志配置,不配置默认在/tmp/openclaw/​ { "logging": { "file": "/path/to/openclaw.log" } } 1 模型配置 "models": { "providers": { "localmodel": { // 模型

LangChain Chat和Agent基础使用

1 LLM 继承BaseChatModel或者SimpleChatModel 设计理念:专注于模型层面,不要预设系统提示词,工具调用时仅输出ToolMessage而不是在内部调用工具 2 Chain chain = prompt | llm | output_parser print(chain.invoke(xxx)) """本质上就是 v1 = prompt.in

大模型训练方案综述

本文以清晰直白的方式,系统梳理了大语言模型(LLM)从基础训练到最终对齐的完整技术流程,核心围绕预训练、微调、参数高效微调、偏好对齐四大关键阶段展开,逐一拆解各类技术的定义、核心逻辑与差异。 预训练:Pre-Training,无监督学习,只有text列;还有个CPT继续预训练,用于继续吸收领域知识 微调:Fine-Tuning,一般情况下LLM微调都是监督微调SFT(Supervised fine