一行代码,让 Claude Code / Gemini / Codex 接入任意 LLM在当前的 AI 开发生态中,各大厂商如 OpenAI、Anthropic 和 Google 都推出了自家的 AI 编码工具,如 Codex CLI、Claude Code 和 Gemini CLI。这些工具功能强大,迭代迅速,几乎每周都有新功能上线。然而,对于国内开发者而言,使用这些工具面临诸多挑战,包括网络访问限制、高昂的费用以及协议兼容性问题。本文将探讨这些问题,并介绍如何使用 DemoApp 大语言模型 admin 3天前 6 热度0评论
Kimi 2.6 来了!一次性发了 5 个王炸,还有一个 Agent 版微信?Kimi 2.6 版本正式发布,带来了多项重大更新,包括更强的编码能力、长程任务执行能力、原生视觉能力等。这些新功能不仅在技术性能上领先于同类模型,还在实际应用中展现出卓越的表现。本文将详细介绍 Kimi 2.6 的五大核心功能,并探讨其在实际开发中的应用价值。 1. 强大的 Agentic Coding 模型 Kimi 2.6 发布了目前最强的开源 Agentic Coding 模型。这一模型在 大语言模型 admin 3天前 10 热度0评论
DeepSeek开源模型家族全解析:从1.5B蒸馏到685B旗舰一、DeepSeek六款模型总览 模型 参数 架构 激活参数 显存(Q4_K_M) 上下文 许可证 路线 DeepSeek R1 1.5B 1.5B Dense 1.5B 1.3 GB 64K MIT 推理 DeepSeek R1 Distill 7B 7B Dense 7B 4.1 GB 64K MIT 推理 DeepSeek R1 Distill 14B 14B Dense 14B 7.7 G 大语言模型 admin 4天前 7 热度0评论
阿里Qwen开源帝国:20款模型全面解析阿里以20款开源模型成为CanIRun.ai上贡献最多的厂商,覆盖0.6B到480B的完整参数区间。本文从产品线、架构、许可证三个维度全面解析Qwen家族。 一、Qwen家族全景图 20款模型按产品线分为5大系列: Qwen3 系列(8款)—— 第三代旗舰 模型 参数 架构 激活参数 显存 上下文 任务 Qwen3 0.6B 0.6B Dense — 0.8 GB 32K chat, edge Q 大语言模型 admin 4天前 11 热度0评论
AI模型量化完全解读:Q2到F16,如何选对量化级别?量化是将大模型\"瘦身\"的核心技术。本文基于CanIRun.ai的77款模型数据,详解每种量化格式的质量损失与显存节省,帮你找到最佳平衡点。 一、量化的本质 大模型的权重本质是一组浮点数。量化就是降低这些数字的精度——从16位浮点(F16)压缩到更少的位数,从而缩小模型体积、加快推理速度,代价是轻微的质量损失。 类比:就像把一张无损PNG压缩成JPEG,体积小了但肉眼几乎看不出区别。 二、六种量化格 大语言模型 admin 4天前 6 热度0评论
CanIRun.ai评分算法揭秘:你的电脑跑AI模型到底能得几分?CanIRun.ai用一套0-100分的评分体系判断你的硬件能跑哪些AI模型。本文完整拆解其评分算法,帮你理解\"能跑\"背后的科学。 一、评分体系概览 CanIRun.ai的评分基于三个维度加权组合: 维度 权重 评估什么 速度得分 55% 模型在你的硬件上跑多快 显存余量 35% 模型占多少显存,还剩多少 质量加成 ~10% 大模型质量更好,给小分加成 最终分数 = 速度分×0.55 + 余量分× 大语言模型 admin 4天前 6 热度0评论
Apple Silicon运行AI模型实战指南:Mac能跑哪些大模型?Apple Silicon的统一内存架构是运行AI模型的独特优势。本文基于CanIRun.ai的数据,为你解析Mac运行AI模型的全部策略。 一、为什么Apple Silicon适合跑AI? 核心优势:统一内存 传统PC的GPU有独立显存,模型必须完全装入GPU VRAM才能高效运行。而Apple Silicon的CPU和GPU共享同一块内存: 传统PC: CPU内存128GB | GPU VRA 大语言模型 admin 4天前 6 热度0评论
2025本地运行AI大模型完全指南:你的电脑到底能跑什么?基于CanIRun.ai平台77款主流开源AI模型数据,为你全面解析本地部署AI的硬件需求与选型策略。 前言 大语言模型的开源浪潮正以惊人速度推进。从Meta的Llama系列到阿里的Qwen家族,从DeepSeek的推理模型到Google的Gemma,开源模型的数量和能力都在指数级增长。但一个核心问题始终困扰着开发者和爱好者:我的电脑到底能跑哪些模型? 本文基于CanIRun.ai平台收录的77款 大语言模型 admin 4天前 9 热度0评论
开源AI编码模型选型指南:从1.5B到480B,哪个最适合写代码?77款开源模型中,13款专精代码生成。本文按硬件能力和使用场景,帮你找到最适合编程的AI助手。 一、编码模型全景 开源AI编码模型已形成完整梯队: 梯队 模型 参数 显存(Q4_K_M) 许可证 特色 轻量 Qwen2.5 Coder 1.5B 1.5B 1.3 GB Apache 2.0 极致轻量 轻量 Qwen2.5 Coder 7B 7B 4.1 GB Apache 2.0 8GB显卡首选 大语言模型 admin 4天前 6 热度0评论
MoE vs Dense:一文读懂AI大模型两种核心架构77款开源AI模型中,24款采用MoE架构,53款为Dense架构。两种架构各有优劣,本文带你深入理解它们的差异与选择策略。 一、什么是Dense模型? Dense(稠密)模型是最经典的架构:每个token生成时,所有参数都参与计算。 输入token → → 输出 特点: 所见即所得,7B参数就是7B的计算量 内存和速度可预测 质量与参数量线性正相关 典型代表 大语言模型 admin 4天前 8 热度0评论