当前位置: 首页 > news >正文

大模型小模型选型手册:开源闭源、国内国外全方位对比

市面上有哪些模型,国内与国外,开源和闭源,热门的 友好的,哪些是小模型 适合个人本地学习练习用的,按照这些维度或者更多的维度 汇总发我。我需要对 大模型和小模型 有一个总体的了解

基于最新的搜索结果,我为你整理一个全面的大模型和小模型汇总,按照你提到的各个维度来分类:

🌍 国内外模型分布

国外主流模型

闭源商业模型:

  • OpenAI系列:GPT-4o, GPT-4.5-Preview, o1-preview, o1-mini
  • Anthropic系列:Claude 3.5 Sonnet, Claude 3.7 Sonnet
  • Google系列:Gemini 2.0 Pro, Gemini 1.5 Pro, Gemini 2.5 Pro
  • Meta系列:部分闭源版本

开源模型:

  • Meta Llama系列:Llama 3, 3.1, 3.2, 3.3 (8B-405B)
  • Mistral AI系列:Mistral 7B, Mixtral 8x7B/8x22B, Mistral Large
  • Google开源:Gemma 2B/7B, Phi-3, Phi-4
  • 微软:Phi系列 (2.7B-4B)

国内主流模型

主要厂商分布:

  • 阿里巴巴:Qwen系列 (0.5B-72B), QwQ-32B
  • 深度求索:DeepSeek系列 (1B-671B), DeepSeek-R1
  • 字节跳动:Doubao-1.5-pro
  • 腾讯:Hunyuan-turbos
  • 智谱AI:GLM系列, GLM-Zero
  • 百度:ERNIE-4.0系列
  • 月之暗面:Kimi系列
  • 零一万物:Yi系列
  • 360:360智脑系列

🔓 开源 vs 闭源对比

顶级开源模型 (2024-2025)

模型名称参数量特点适用场景
DeepSeek-R1671B推理能力强,成本效益高复杂推理、编程
Qwen2.5-72B72B超越Llama3.1-405B性能通用任务、中文处理
Llama 3.1-405B405B最大开源模型企业级应用
Mixtral 8x22B141B (39B激活)MoE架构,效率高多语言、编程

顶级闭源模型

模型名称开发商Elo评分特点
o3-miniOpenAI76.01最新推理模型
DeepSeek-R1深度求索70.33开源推理之王
Claude 3.7 SonnetAnthropic68.02对话体验佳
GPT-4.5-PreviewOpenAI67.46综合能力强

📱 小模型推荐 (适合个人本地学习)

超轻量模型 (1B-3B)

最适合CPU运行:

  • Qwen2.5-0.5B/1.5B/3B - 阿里巴巴,中文友好
  • Llama 3.2-1B/3B - Meta,移动端优化
  • Gemma-2B - Google,1.4GB大小
  • DeepSeek-R1-Distill-1.5B - 深度求索,推理能力强
  • Phi-2 (2.7B) - 微软,性能优异

轻量模型 (7B级别)

推荐配置:8-16GB显存

  • Qwen2.5-7B - 编程数学能力强 (HumanEval 85+, MATH 80+)
  • Llama 3.1-8B - 128K上下文,通用性好
  • Mistral-7B - 推理能力出色
  • DeepSeek-Coder-7B - 专业编程模型
  • Gemma-7B - 4.8GB大小,平衡性好

中等模型 (13B-32B)

推荐配置:16-32GB显存

  • Qwen2.5-14B/32B - 性能接近大模型
  • DeepSeek-V3 (37B激活) - MoE架构,效率高
  • Mixtral 8x7B - 47B总参数,13B激活
  • Llama 3.2-11B - 视觉语言模型

🔥 热门友好模型推荐

最受欢迎开源模型 (按下载量)

  1. Llama系列 - Meta,生态最完善
  2. Qwen系列 - 阿里巴巴,中文最佳
  3. Mistral系列 - 欧洲之光,商业友好
  4. DeepSeek系列 - 性价比之王
  5. Gemma系列 - Google出品,质量保证

新手最友好模型

本地部署简单:

  • Ollama支持的模型:一键部署
    • ollama run llama3 (8B, 4.7GB)
    • ollama run qwen:7b
    • ollama run gemma:2b (1.4GB)
    • ollama run deepseek-coder:7b

💻 本地部署硬件需求指南

显存需求计算公式

  • 无量化:显存(GB) = 参数量(B) × 2
  • 4bit量化:显存(GB) = 参数量(B) ÷ 2
  • 8bit量化:显存(GB) = 参数量(B) × 1

硬件配置推荐

显存大小推荐模型量化方式
4-8GB1B-3B模型无需量化
8-16GB7B模型4bit量化
16-24GB13B-14B模型4bit量化
24-32GB32B模型4bit量化
40GB+70B+模型4bit量化

CPU运行友好模型

  • Phi-2 (2.7B) - CPU友好,性能不错
  • TinyLlama (1.1B) - 专为资源受限设备设计
  • Qwen2.5-0.5B - 超轻量,CPU可流畅运行

🚀 快速开始推荐

零基础入门路线

  1. Ollama + Qwen2.5-7B - 最佳中文体验
  2. Ollama + Llama 3.1-8B - 最佳通用体验
  3. Ollama + Gemma-2B - 最低硬件要求
  4. Ollama + DeepSeek-Coder-7B - 编程学习专用

进阶路线

  1. 本地部署Qwen2.5-32B - 接近商业模型体验
  2. 尝试DeepSeek-R1 - 体验开源推理能力
  3. 部署专业模型 - 如数学专用、代码专用等

📊 2024-2025最新排名总结

综合能力TOP5:

  1. DeepSeek-R1 (开源推理之王)
  2. QwQ-32B (阿里巴巴推理模型)
  3. Qwen2.5-72B (综合性能优异)
  4. Llama 3.1-405B (开源最大模型)
  5. Mixtral 8x22B (MoE架构典范)

个人学习TOP5:

  1. Qwen2.5-7B (中文+编程双强)
  2. Llama 3.1-8B (生态完善)
  3. DeepSeek-Coder-7B (编程专业)
  4. Gemma-7B (Google品质)
  5. Mistral-7B (推理优秀)

这个汇总覆盖了从超轻量CPU模型到大型GPU模型的完整谱系,你可以根据自己的硬件条件和学习目标选择合适的模型开始实践!

http://www.xdnf.cn/news/1073737.html

相关文章:

  • 团结引擎发布纯鸿蒙应用
  • 微信小程序接入腾讯云短信验证码流程
  • python 使用 pyenv 管理 python 版本
  • 从代码学习深度学习 - 自然语言推断:使用注意力 PyTorch版
  • 基于Servlet + Jsp 的在线考试系统
  • 华为云Flexus+DeepSeek征文 | 华为云 ModelArts Studio 赋能高情商AI聊天助手:用技术构建有温度的智能对话体验
  • libevent(2)之使用教程(1)介绍
  • 基于云的平板挠度模拟:动画与建模-AI云计算数值分析和代码验证
  • 多模态大语言模型arxiv论文略读(143)
  • 广度优先搜索BFS(广搜)复习(c++)
  • 深入理解Mysql索引底层数据结构和算法
  • NeRF-Lidar实景重建:大疆Mavic 4 Pro低成本建模方案(2025实战指南)
  • H3C-路由器DHCPV6V4配置标准
  • C++基础(FreeRDP编译)
  • SRS流媒体服务器之本地测试rtc推流bug
  • Python 数据分析:numpy,抽提,整数数组索引。听故事学知识点怎么这么容易?
  • 第八讲——一元函数积分学的概念与性质
  • 【编译原理】期末
  • 设备树引入
  • 【Java--SQL】${}与#{}区别和危害
  • 【EDA软件】【联合Modelsim 同步FIFO仿真】
  • git 挑选:git cherry-pick
  • springboot+Vue逍遥大药房管理系统
  • python中学物理实验模拟:瞬间推力与摩擦力作用下的物体运动
  • 【数据标注师】目标跟踪标注
  • 概述-4-通用语法及分类
  • Word之空白页删除2
  • 基于Pandas和FineBI的昆明职位数据分析与可视化实现(二)- 职位数据清洗与预处理
  • UniApp Vue3 模式下实现页面跳转的全面指南
  • SQL关键字三分钟入门:ROW_NUMBER() —— 窗口函数为每一行编号