当前位置: 首页 > web >正文

智谱开源新一代GLM模型,全面布局AI智能体生态

2024年4月15日,智谱在中关村论坛上正式发布了全球首个集深度研究与实际操作能力于一体的AI智能体——AutoGLM沉思。这一革命性技术的发布标志着智谱在AGI(通用人工智能)领域的又一次重要突破。智谱的最新模型不仅推动了AI智能体技术的升级,还开创了AI Agent的全新应用范式——边想边干

图片

AutoGLM沉思:AI Agent的新篇章

随着AutoGLM沉思的发布,智谱带来了全球首个能够同时进行深度研究实际操作的智能体。这一进步使得AI不再仅仅是一个“思考者”,而是一个可以实际执行任务的“行动者”。这一核心能力的实现,依赖于智谱自主研发的全栈大模型技术,并且在此次发布中,智谱还将核心技术链路开源,进一步推动行业生态的快速发展。

深度思考与自主行动的完美结合

AutoGLM沉思的发布,意味着AI智能体的核心能力已经从传统的推理阶段向实际执行阶段拓展。该智能体具备三大关键特性:

  1. 深度思考:能够模拟人类在面对复杂问题时的推理与决策过程。

  2. 感知世界:能够像人类一样获取并理解环境信息。

  3. 工具使用:能够主动调用和操作工具,完成复杂任务。

与OpenAI的Deep Research不同,AutoGLM沉思不仅能深入研究、提供分析,还能主动执行任务,推动AI Agent从单纯的思考者进化为能够交付结果的智能执行者。这一突破为未来的AGI发展奠定了坚实的基础。

图片

智谱GLM系列模型技术演进:开源再升级

智谱在此次发布的AutoGLM沉思背后,依托的是其自主研发的全栈大模型技术。这些技术不仅支撑了深度思考和实际操作的能力,也标志着智谱在大模型研发中的深厚积淀。

Image

1. 新版基座模型:GLM-4-Air-0414

作为基础模型,GLM-4-Air-0414 拥有320亿参数,利用大量的代码类和推理类数据训练,并在对齐阶段进行了优化。该模型特别适合于需要多轮复杂交互的智能体任务,能够快速高效地完成任务。它在工具调用、联网搜索和代码执行等任务中的表现尤为突出,成为AI智能体应用的坚实基石。

2. 新版推理模型:GLM-Z1-Air

GLM-4-Air-0414的基础上,智谱推出了推理优化模型GLM-Z1-Air。该模型在推理能力上与DeepSeek-R1(671B)相媲美,凭借其32B的参数,在AIME 24/25、LiveCodeBench、GPQA等多个基准测试中展现了强大的数理推理能力,支持解决更广泛的复杂任务。同时,GLM-Z1-Air的推理速度提升了8倍,并且具备更高的性价比,可以在消费级显卡上顺畅运行。

3. 沉思模型:GLM-Z1-Rumination

GLM-Z1-Rumination是智谱推出的全新沉思模型,在深度推理的基础上,结合了实时联网搜索、动态工具调用和自我验证的能力。这个模型突破了传统AI仅依赖内部知识推理的局限,能够主动获取外部信息进行实时修正,提升了推理的准确性和可靠性。它是AI从高智商向高智商与高自主并重阶段的飞跃,具备了极强的自主研究能力。

4. AutoGLM:全球首个设备操控智能体

AutoGLM系列是智谱在AI智能体领域的又一次创新突破,具有操作设备和执行复杂任务的能力。智谱自研的GLM-PC(CogAgent)在多个权威评测榜单上取得了SOTA成绩,超越了包括GPT-4o等更大规模的同类模型,展现了领先的AI执行能力。

卓越性能:推理速度与应用表现的双重突破

智谱的GLM系列模型,不仅在推理能力和实际应用的广度上取得了巨大的进展,其卓越的性能还体现在多个方面,尤其是在推理速度硬件兼容性上。

  1. 极速推理:
    GLM-Z1-Air推理速度可达200 Tokens/秒,是行业中推理速度最快的模型之一。这一速度相当于人类语速的50倍,为高并发、低延迟的应用场景提供了无与伦比的优势。与DeepSeek-R1(671B)相比,GLM-Z1-Air的推理速度提升了8倍,并且在性能的提升上,GLM-Z1-Air的计算成本也降低到了1/30,这为企业和开发者提供了更高性价比的选择。

    Image

    Image

  2. 硬件兼容性:
    为了降低硬件门槛,GLM-Z1-Air支持在消费级显卡上流畅运行,解决了传统大模型对计算资源的高要求问题。这意味着,开发者和企业能够更加灵活地部署AI模型,并且节省硬件成本。

  3. 性能表现:
    在性能表现上,可以与DeepSeek-R1(671B,激活37B)媲美。我们在 AIME 24/25、LiveCodeBench、GPQA 等基准测试中对 GLM-Z1-Air 进行了评估,评估结果显示 GLM-Z1-Air 展现了较为强大的数理推理能力,为更多复杂任务的解决提供了支持。

    Image

下载链接

OpenCSG社区:https://opencsg.com/models/THUDM/GLM-Z1-9B-0414

HF社区:https://huggingface.co/collections/THUDM/glm-4-0414-67f3cbcb34dd9d252707cb2e

http://www.xdnf.cn/news/580.html

相关文章:

  • 墙面刷完乳胶漆之后就有裂缝,有根治的办法吗?
  • Java面向对象进阶
  • BEVDet: High-Performance Multi-Camera 3D Object Detection in Bird-Eye-View
  • 年化26.9%的稳健策略|polars重构因子计算引擎(python策略下载)
  • AI——神经网络以及TensorFlow使用
  • 《汽车理论》第四章作业MATLAB部分
  • 传统深度学习架构和Transformer结构的区别
  • 从0开始搭建一套工具函数库,发布npm,支持commonjs模块es模块和script引入使用
  • uniapp-商城-29-vuex 关于系统状态的管理
  • 嵌入式单片机开发问题:Undefined symbol _HAL_RCC_GPIOB_CLK_ENABLE
  • Matlab 基于模型参考自适应法和SVPWM的异步电机控制
  • Kubernetes(k8s)学习笔记(二)--k8s 集群安装
  • 机器学习(神经网络基础篇)——个人理解篇6(概念+代码)
  • 【实战中提升自己】内网安全部署之dot1x部署 本地与集成AD域的主流方式(附带MAC认证)
  • UE5的BumpOffset节点
  • C++选择排序原理及实现
  • Python带有else子句的循环语句
  • 动态内存管理
  • [dp20_完全背包] 介绍 | 零钱兑换
  • PSN港服跳过生日找回密码(需要英语对话,需要注册的id)
  • 超大文件处理——文件强制切割:突破存储传输限制,提升数据处理效能—星辰大文化术——未来之窗超算中心
  • 小样本学习和元学习
  • STM32学习笔记汇总
  • 图 - 最短路径算法 -- Dijkstra -- Bellman-Ford -- Floyd-Warshall
  • 每日OJ_牛客_最小差值_排序_C++_Java
  • 链表面试题
  • element-plus样式失效的原因总结
  • Linux 桌面环境 LXQt 2.2 发布
  • 放松大脑的方法
  • dev_set_drvdata、dev_get_drvdata使用详解