当前位置: 首页 > news >正文

cua: 为 AI 智能体提供高性能虚拟环境

GitHub:GitHub - trycua/cua: c/ua is the Docker Container for Computer-Use AI Agents.

更多AI开源软件:发现分享好用的AI工具、AI开源软件、AI模型、AI变现 - 小众AI

一个专为 AI 智能体设计的高性能操作系统虚拟化与控制框架。它通过轻量级、近乎原生速度的虚拟容器,让 AI Agent 能够在完全隔离的 macOS 或 Linux 环境中自动执行“用电脑”任务,如操作应用、上网、写代码、自动化复杂办公流程等,并内置多种主流 LLM(大模型)接口。

主要功能

  1. 高性能虚拟化:在 Apple Silicon 上运行 macOS/Linux 虚拟机,性能接近原生(90%)。
  2. AI 代理操作:支持 AI 在虚拟机中操作 macOS 系统及应用(如浏览器、VS Code)。
  3. 安全隔离:所有操作在沙盒化的虚拟环境中运行,保护主机系统。
  4. 多应用支持:AI 可操控虚拟机内的多种程序,实现复杂工作流。
  5. 兼容多种大模型:支持 OpenAI、Anthropic 的 CUA 模型,未来还将兼容 Ollama 等本地大模型。

安装和使用

系统要求

  • 配备 Apple Silicon 的 Mac(M1/M2/M3/M4 系列)
  • macOS 15 (Sequoia) 或更高版本
  • Python 3.10+(计算机、代理和 MCP 库需要)。我们建议使用 Conda(或 Anaconda)创建临时 Python 环境。
  • VM 映像的磁盘空间(建议 30GB+)

1:仅限 Lume CLI(VM 管理)

如果您只需要虚拟化功能:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/trycua/cua/main/libs/lume/scripts/install.sh)"

(可选)如果您不希望 Lume 作为后台服务运行:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/trycua/cua/main/libs/lume/scripts/install.sh) --no-background-service"

注意:如果您选择此选项,则需要在需要时通过在终端中运行来手动启动 Lume API 服务。这适用于完成步骤 1 后的选项 2。lume serve​

有关 Lume 使用说明,请参阅 Lume 文档。

2:完整的计算机使用代理功能

如果要将 AI 代理与虚拟化环境一起使用:

  1. 安装 Lume CLI:

    /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/trycua/cua/main/libs/lume/scripts/install.sh)"
    
  2. 拉取最新的 macOS CUA 映像:

    lume pull macos-sequoia-cua:latest
    
  3. 安装 Python 库:

    pip install cua-computer cua-agent[all]
    
  4. 在 Python 代码中使用这些库:

    from computer import Computer
    from agent import ComputerAgent, LLM, AgentLoop, LLMProviderasync with Computer(verbosity=logging.DEBUG) as macos_computer:agent = ComputerAgent(computer=macos_computer,loop=AgentLoop.OPENAI, # or AgentLoop.ANTHROPIC, or AgentLoop.OMNImodel=LLM(provider=LLMProvider.OPENAI) # or LLM(provider=LLMProvider.ANTHROPIC))tasks = ["Look for a repository named trycua/cua on GitHub.",]for task in tasks:async for result in agent.run(task):print(result)
    

    浏览 Agent Notebook 以获取可运行的示例。

  5. 或者,您可以将代理与 Gradio UI 一起使用:

    from utils import load_dotenv_files
    load_dotenv_files()from agent.ui.gradio.app import create_gradio_uiapp = create_gradio_ui()
    app.launch(share=False)
    

3:从源构建

如果您想为项目做出贡献或需要最新的 nigh

目录

主要功能

安装和使用

系统要求

1:仅限 Lume CLI(VM 管理)

2:完整的计算机使用代理功能

3:从源构建


tly 功能:

# Clone the repository
git clone https://github.com/trycua/cua.git
cd cua# Open the project in VSCode
code ./.vscode/py.code-workspace# Build the project
./scripts/build.sh

有关更多信息,请参阅我们的开发人员指南。

http://www.xdnf.cn/news/246907.html

相关文章:

  • GTA5(传承/增强) 13980+真车 超跑 大型载具MOD整合包+最新GTA6大型地图MOD 5月最新更新
  • PyTorch 2.0编译器技术深度解析:如何自动生成高性能CUDA代码
  • 【Bootstrap V4系列】学习入门教程之 页面内容排版
  • 图像加密算法概述
  • Elsevier latex报错Paragraph ended before \@citex was complete.<to be read again>
  • Vue3 + OpenLayers 企业级应用进阶
  • Linux 第六讲 --- 工具篇(一)yum/apt与vim
  • 哈希表笔记(四)Redis对比Java总结
  • YOLOv8模型训练过程
  • Python与MySQL高效集成指南:从基础到高级实践
  • Hibernate与MybatisPlus的混用问题(Invalid bound statement (not found))
  • (C题|社交媒体平台用户分析问题)2025年第二十二届五一数学建模竞赛(五一杯/五一赛)解题思路|完整代码论文集合
  • 恒流源电路
  • RAG工程-基于LangChain 实现 Advanced RAG(预检索-查询优化)(下)
  • 前端HTML基础知识
  • 【大模型面试每日一题】Day 5:GQA vs MHA效率对比
  • CV中常用Backbone-2:ConvNeXt模型详解
  • 微软推出数款Phi 4“开放式”人工智能模型
  • VB.net序列化和反序列化的使用方法和实用场景
  • NUS:多模态多视角理解评估
  • 攻防世界 - Misc - Level 6 | Wireshark
  • jupyterlab建议安装的两个插件
  • LeetCode:DP-回文串问题
  • 如何测试登录模块?全面测试思路解析
  • Python爬虫(14)Python爬虫数据存储新范式:云原生NoSQL服务实战与运维成本革命
  • Socket通信
  • Beetle-RP2350 扩展板设计
  • 力扣——23合并升序链表
  • 【ESP32】st7735s + LVGL使用-------图片显示
  • python多线程输入字符和写入文件