阿里Qwen开源帝国:20款模型全面解析

阿里以20款开源模型成为CanIRun.ai上贡献最多的厂商,覆盖0.6B到480B的完整参数区间。本文从产品线、架构、许可证三个维度全面解析Qwen家族。 一、Qwen家族全景图 20款模型按产品线分为5大系列: Qwen3 系列(8款)—— 第三代旗舰 模型 参数 架构 激活参数 显存 上下文 任务 Qwen3 0.6B 0.6B Dense — 0.8 GB 32K chat, edge Q

AI模型量化完全解读:Q2到F16,如何选对量化级别?

量化是将大模型\"瘦身\"的核心技术。本文基于CanIRun.ai的77款模型数据,详解每种量化格式的质量损失与显存节省,帮你找到最佳平衡点。 一、量化的本质 大模型的权重本质是一组浮点数。量化就是降低这些数字的精度——从16位浮点(F16)压缩到更少的位数,从而缩小模型体积、加快推理速度,代价是轻微的质量损失。 类比:就像把一张无损PNG压缩成JPEG,体积小了但肉眼几乎看不出区别。 二、六种量化格

CanIRun.ai评分算法揭秘:你的电脑跑AI模型到底能得几分?

CanIRun.ai用一套0-100分的评分体系判断你的硬件能跑哪些AI模型。本文完整拆解其评分算法,帮你理解\"能跑\"背后的科学。 一、评分体系概览 CanIRun.ai的评分基于三个维度加权组合: 维度 权重 评估什么 速度得分 55% 模型在你的硬件上跑多快 显存余量 35% 模型占多少显存,还剩多少 质量加成 ~10% 大模型质量更好,给小分加成 最终分数 = 速度分×0.55 + 余量分×

Apple Silicon运行AI模型实战指南:Mac能跑哪些大模型?

Apple Silicon的统一内存架构是运行AI模型的独特优势。本文基于CanIRun.ai的数据,为你解析Mac运行AI模型的全部策略。 一、为什么Apple Silicon适合跑AI? 核心优势:统一内存 传统PC的GPU有独立显存,模型必须完全装入GPU VRAM才能高效运行。而Apple Silicon的CPU和GPU共享同一块内存: 传统PC: CPU内存128GB | GPU VRA

2025本地运行AI大模型完全指南:你的电脑到底能跑什么?

基于CanIRun.ai平台77款主流开源AI模型数据,为你全面解析本地部署AI的硬件需求与选型策略。 前言 大语言模型的开源浪潮正以惊人速度推进。从Meta的Llama系列到阿里的Qwen家族,从DeepSeek的推理模型到Google的Gemma,开源模型的数量和能力都在指数级增长。但一个核心问题始终困扰着开发者和爱好者:我的电脑到底能跑哪些模型? 本文基于CanIRun.ai平台收录的77款

开源AI编码模型选型指南:从1.5B到480B,哪个最适合写代码?

77款开源模型中,13款专精代码生成。本文按硬件能力和使用场景,帮你找到最适合编程的AI助手。 一、编码模型全景 开源AI编码模型已形成完整梯队: 梯队 模型 参数 显存(Q4_K_M) 许可证 特色 轻量 Qwen2.5 Coder 1.5B 1.5B 1.3 GB Apache 2.0 极致轻量 轻量 Qwen2.5 Coder 7B 7B 4.1 GB Apache 2.0 8GB显卡首选

MoE vs Dense:一文读懂AI大模型两种核心架构

77款开源AI模型中,24款采用MoE架构,53款为Dense架构。两种架构各有优劣,本文带你深入理解它们的差异与选择策略。 一、什么是Dense模型? Dense(稠密)模型是最经典的架构:每个token生成时,所有参数都参与计算。 输入token → → 输出 特点: 所见即所得,7B参数就是7B的计算量 内存和速度可预测 质量与参数量线性正相关 典型代表

开源AI模型硬件需求排行榜:你的显卡能跑哪些模型?

按显存需求从低到高排列77款开源AI模型,帮你快速定位自己硬件的\"天花板\"。 排行榜说明 所有数据基于Q4_K_M量化(最流行的量化格式,质量保留约88%)。显存需求 = 模型文件大小 + 0.5GB运行时开销 + 10%安全余量。MoE模型按总参数计算显存(需加载所有专家)。 超轻量级(<2GB)—— 任何设备都能跑 排名 模型 参数 显存 上下文 许可证 任务 1 Qwen3 0.6B

国内环境下的Claude Code安装与使用教程

在人工智能技术飞速发展的今天,软件开发模式正经历着从传统手工编码向AI辅助编程乃至Vibe Coding(基于自然语言的编程)的深刻变革。对于现代开发者而言,集成在IDE中的AI插件已成为提升效率的基础工具,而基于命令行界面的智能体(Agent)工具则代表了更高级的自动化开发形态。其中,由Anthropic推出的Claude Code凭借其强大的代码库理解能力、多文件编辑能力以及任务自动化执行能力

从零实现一个完整 RAG 系统:基于 Eino 框架的检索增强生成实战

在大型语言模型(LLM)广泛应用的今天,检索增强生成(Retrieval-Augmented Generation, RAG) 已成为解决模型幻觉、提升回答准确性的核心技术方案。传统的大模型受限于训练数据的截止时间,无法获取实时信息或私有领域知识,往往导致“一本正经地胡说八道”。RAG 技术通过引入外部知识库,实现了“先检索、后生成”的逻辑闭环,使模型能够基于真实、最新的上下文进行推理。本文将深入