当前位置: 首页 > news >正文

大模型训练与推理显卡全指南:从硬件选型到性能优化

在人工智能技术飞速发展的今天,大型语言模型(LLM)已成为推动行业进步的核心动力。然而,训练和部署这些“数字巨人”需要强大的计算基础设施作为支撑,其中GPU的选择直接决定了模型开发的效率与成本。本文将全面剖析当前主流GPU型号在大模型训练与推理中的应用,从专业数据中心级显卡到高性价比消费级产品,详细比较其架构特性、性能参数及适用场景,并针对不同规模模型提供具体的硬件配置建议,帮助开发者、研究机构和企业根据自身需求做出最优的硬件投资决策(扩展阅读:大模型训练与推理显卡全指南:从个人开发者到企业级解决方案-CSDN博客、个人开发者选 GPU 的简单方案-CSDN博客)。

专业级数据中心GPU:大模型训练的黄金标准

专业级数据中心GPU代表了当前AI计算领域的最高水平,专为处理超大规模模型训练和高并发推理任务而设计。这些显卡通常采用最先进的制程工艺和计算架构,配备大容量高带宽内存(HBM),支持多卡高速互联,虽然价格昂贵,但能为企业级用户提供无与伦比的性能与可靠性。在大模型开发领域,NVIDIA凭借其完整的软件生态和持续创新的硬件架构,目前占据着主导地位,其H100和A100系列已成为众多科技巨头和顶尖研究机构的首选。

NVIDIA H100/H800:大模型训练的巅峰之作

NVIDIA H100基于Hopper架构,采用台积电4nm工艺制造,集成了惊人的800亿个晶体管,代表了当前AI加速器的最尖端技术。其核心优势体现在三个方面:革命性的Transformer引擎专为大型语言模型优化,相比前代A100在处理GPT-3类模型时训练速度提升高达30倍;创新的FP8精度支持在保持模型精度的同时将内存占用和计算开销减半;第四代NVLink技术实现高达900GB/s的卡间互联带宽,使多GPU系统能够高效协同工作。

H100提供两种显存配置:80GB HBM3版本内存带宽达3TB/s,而141GB版本更是将容量几乎翻倍,可轻松承载千亿参数模型的训练。在计算性能方面,H100的FP16算力高达1513 TFLOPS,FP8性能更是达到2000 TOPS以上,配合新的DPX指令集,在动态规划类算法上相比A100有高达40倍的加速。如此强悍的性能使H100成为训练GPT-4、Claude等顶尖大模型的基础设施核心。

然而,H100的高性能也伴随着高昂价格,PCIe版本的售价约24万元人民币,而采用SXM封装的高端版本价格更是超过100万元。此外,由于美国出口管制政策,中国市场推出了特供版H800,其互联带宽从H100的900GB/s降至400GB/s,算力也有一定限制,但价格仍维持在相近水平。对于预算充足且追求极致性能的企业,H100无疑是当前大模型训练的理想选择,尤其适合需要分布式训练超大规模模型(如300亿参数以上)的场景。

H100的技术创新点

  • Transformer引擎:自动在FP8和FP16精度间动态切换,优化大模型训练效率

  • 机密计算:为多租户环境提供硬件级安全隔离,适合云服务商部署

  • 动态编程加速:新增DPX指令集,极大提升序列对齐等算法速度

  • 可扩展性:支持多达256块GPU通过NVLink全互联,构建超算级AI集群

NVIDIA A100/A800:性价比最优的AI工作主力

作为Hopper架构的前一代产品,基于Ampere架构的A100虽然绝对性能不及H100,但其出色的性价比成熟度使其成为大多数AI实验室和企业的主流选择。A100采用7nm工艺制造,配备6912个CUDA核心和432个Tensor Core,提供40GB和80GB两种HBM2e显存配置,内存带宽分别为1555GB/s和超过2TB/s。

在计算能力方面,A100的FP16性能为312 TFLOPS,支持TF32新型数学格式,可自动将FP32运算转换为TF32执行,在保持足够精度的同时获得数倍性能提升。与H100类似,A100也有中国特供版A800,主要区别在于NVLink带宽从600GB/s降至400GB/s,但计算性能保持不变。这种设计使A800在单机训练任务中表现与A100相当,仅在大规模多机分布式训练时会有一定性能差距。

价格方面,A800单价约为170万元人民币,相比H100更为亲民。对于70亿到300亿参数的中大型模型训练,A100/A800系列提供了最佳的投资回报率。实际部署中,70亿参数模型推荐使用4张A100/A800,130亿参数需要8张,而300亿参数模型则需要12张配置。除了训练外,A100也广泛应用于推理场景,其MIG(Multi-Instance GPU)技术可将单卡虚拟化为多个独立实例,同时服务多个模型,显著提升资源利用率。

A100的独特优势

  • 多实例GPU(MIG):将单卡划分为最多7个独立实例,实现细粒度资源共享

  • 第三代Tensor Core:支持TF32自动精度转换,平衡速度与准确性

  • 结构稀疏性:利用2:4稀疏模式可获得额外2倍性能提升

  • 成熟软件生态:所有主流深度学习框架均已深度优化,降低部署门槛

型号架构显存容量显存带宽FP16算力互联技术参考价格最佳适用场景
H100Hopper80/141GB HBM33TB/s1513 TFLOPSNVLink 4.0 (900GB/s)24万+元超大规模模型训练
H800Hopper80GB HBM33TB/s略低于H100NVLink 受限版 (400GB/s)与H100相近合规市场大模型训练
A100Ampere40/80GB HBM2e2TB/s312 TFLOPSNVLink 3.0 (600GB/s)已逐步退市中大型模型训练
A800Ampere40/80GB HBM2e2TB/s同A100NVLink 受限版 (400GB/s)~170万元合规市场中型模型训练

专业级数据中心GPU虽然价格昂贵,但其强大的计算能力、高内存带宽和可靠的稳定性使其成为企业级大模型开发的不二之选。对于需要训练百亿参数以上模型的机构,H100/H800系列提供了最前沿的性能;而A100/A800则在性价比和成熟度方面表现更优,适合大多数实际应用场景。

高端消费级GPU:中小规模模型的经济之选

并非所有大模型开发都需要动用数据中心级的计算怪兽,对于中小型研究团队、初创企业甚至个人研究者而言,高端消费级GPU提供了极具吸引力的性价比选择。这些显卡虽然缺乏专业计算卡的大显存和高速互联能力,但凭借出色的性能和广泛的可用性,已成为微调中型模型和执行推理任务的主流选择。随着显卡技术的迭代,最新一代消费级产品在AI工作负载上的表现已经接近几年前的专业卡水准,极大降低了进入大模型领域的门槛。

NVIDIA RTX 5090/5090D:消费级显卡的性能巅峰

NVIDIA在2025年初发布的RTX 50系列将消费级GPU的性能推向了新高度,其中旗舰型号RTX 5090搭载21760个CUDA核心,配备32GB GDDR7显存,显存带宽高达1792GB/s,FP16理论算力约为318 TFLOPS39。相比前代RTX 4090,这一代产品在AI算力方面实现了质的飞跃,新增的第五代Tensor Core支持3352 AI TOPS的运算能力(INT4基准),并引入了DLSS 4技术,通过Vision Transformer优化超分辨率和帧生成质量。

针对中国市场,NVIDIA特别推出了RTX 5090D版本,其硬件规格与国际版基本相同,主要区别在于AI算力从3352 TOPS降至2375 TOPS(仍以INT4为基准计算),游戏和通用计算性能则保持不变。价格方面,RTX 5090D国内售价为16499元,远低于专业计算卡,使其成为个人研究者和小型团队的理想选择。

在实际应用中,RTX 5090系列非常适合70亿参数以下模型的全参数微调和200亿参数以下模型的推理任务。其32GB显存足以承载LLaMA-2 70B等模型采用4-bit量化后的权重(约需28GB显存),而强大的计算能力则可确保可接受的训练速度。对于学术研究和产品原型开发,这种级别的性能已经能够满足大多数需求,而成本仅为专业卡的十分之一左右。

RTX 5090系列的技术亮点

  • DLSS 4技术:采用Vision Transformer替代传统CNN,显著提升AI生成图像质量

  • 高级电源管理:尽管TDP达575W,但能效比相比前代提升30%

  • PCIe 5.0接口:提供更高带宽,缓解数据I/O瓶颈

  • GDDR7显存:实现接近HBM2的带宽,而成本大幅降低

NVIDIA RTX 4090:经久不衰的性价比王者

尽管RTX 50系列已经发布,上一代旗舰RTX 4090仍然是极具吸引力的选择,特别是在二手市场。RTX 4090基于Ada Lovelace架构,配备16384个CUDA核心和24GB GDDR6X显存,FP16算力约82.6 TFLOPS,显存带宽为1.01TB/s。虽然这些参数看似不及专业卡,但其实际AI性能往往超出纸面数据,特别是在使用优化过的推理框架如vLLM或TensorRT-LLM时。

RTX 4090的最大优势在于极高的性价比广泛的社区支持。当前市场价格约12000-15000元,且不需要特殊的服务器电源和散热系统,普通工作站即可搭载。对于130亿参数以下的模型微调和70亿参数以下的全参数训练,RTX 4090提供了足够的能力。例如,使用QLoRA技术对LLaMA-2 13B进行微调仅需单卡即可完成,而7B模型的全参训练在多卡配置下也完全可行。

在推理方面,RTX 4090能够流畅运行130亿参数模型的8-bit量化版本,或70亿参数的16-bit原生版本。许多初创公司使用多台配备RTX 4090的工作站构建小型推理集群,以极低的成本提供商业级AI服务。虽然能效比不如专业卡,但从总体拥有成本(TCO)角度考虑,RTX 4090仍然是中小规模部署的最佳选择之一。

NVIDIA RTX 5080/A6000:平衡性能与预算

对于预算更为有限的用户,RTX 5080和上一代专业卡A6000提供了不错的折中选择。RTX 5080作为50系列的中高端型号,拥有10752个CUDA核心和16GB GDDR7显存,FP16算力约171 TFLOPS,国内售价8299元。虽然显存容量限制了其处理超大模型的能力,但对于30亿参数以下的模型训练和70亿参数以下的模型推理,它仍然表现出色。

专业级的A6000基于Ampere架构,配备48GB GDDR6显存,虽然计算性能(77 TFLOPS FP16)不及消费级旗舰,但大显存使其能够处理更大批次的推理任务或更复杂的模型。在二手市场,A6000的价格已降至15000元左右,对于需要大显存但不需要极致算力的应用场景(如多模态模型推理),它仍然是性价比突出的选择。

型号架构显存容量显存带宽FP16算力互联技术参考价格最佳适用场景
RTX 5090DAda Lovelace32GB GDDR71792GB/s~318 TFLOPSPCIe 5.0×1616499元70亿参数以下训练/200亿推理
RTX 5090Ada Lovelace32GB GDDR71792GB/s~318 TFLOPSPCIe 5.0×161999美元同5090D,非中国市场
RTX 4090Ada Lovelace24GB GDDR6X1.01TB/s82.6 TFLOPSPCIe 4.0×16~13000元130亿参数以下微调/70亿推理
RTX 5080Ada Lovelace16GB GDDR7960GB/s~171 TFLOPSPCIe 5.0×168299元30亿参数训练/70亿推理
A6000Ampere48GB GDDR6768GB/s77 TFLOPSNVLink(受限)~15000元(二手)大显存推理任务

高端消费级GPU为AI研究民主化提供了重要支持,使更多开发者和中小团队能够参与到大模型创新中。虽然它们无法替代专业数据中心卡在超大规模训练中的角色,但在模型微调、实验性研究和中小规模部署场景中,这些显卡以十分之一的成本提供了相当可观的性能。随着技术的进步,消费级显卡的AI能力还将持续增强,进一步降低大模型开发的门槛,推动AI应用在各个行业的普及和创新。

模型规模与GPU配置的精准匹配策略

选择适合大模型任务的GPU不仅需要考虑硬件本身的性能参数,更需要根据模型的具体规模、训练方法和应用场景进行精准匹配。不同参数量级的模型对显存、算力和通信带宽的需求存在数量级差异,合理的硬件配置可以显著提高资源利用率,避免性能瓶颈或投资浪费。本节将详细分析从70亿到数千亿参数的各种大模型在不同阶段(预训练、微调、推理)对GPU配置的最低要求和优化建议,为实际项目规划提供系统化指导。

十亿级模型(1B-10B):轻量级任务的灵活配置

十亿参数规模的模型如GPT-2(1.5B)、LLaMA-1(7B)等属于“轻量级”大模型,在消费级GPU上即可完成全流程开发。这类模型通常用于微调(fine-tuning)或特定任务优化,而非从头预训练,因此对硬件要求相对较低。

训练/微调需求:对于7B参数模型的全参数微调,单张RTX 4090(24GB)即可胜任,但batch size会受到限制;使用两张卡通过NVLink连接可获得更好性能。若采用QLoRA等参数高效微调方法,甚至可以在RTX 3090(24GB)上完成。以LLaMA-2 7B为例,全参数微调需要约56GB显存(FP16),通过梯度检查点(gradient checkpointing)和优化器状态分片(optimizer sharding)技术,可将需求降至24GB左右。

推理需求:7B模型的FP16推理约需14GB显存,因此单张RTX 4080(16GB)即可流畅运行。若采用8-bit量化,显存需求降至7GB左右,甚至可以在RTX 3060(12GB)上部署。对于高并发推理场景,建议使用多张RTX 4090或单张A6000(48GB),后者可同时加载多个实例提高吞吐量。

推荐配置方案

  • 低成本研究:单张RTX 4090(24GB)或RTX 3090(24GB)

  • 团队开发:双RTX 4090 NVLink配置或单张A6000(48GB)

  • 生产部署:多张RTX 4090或A6000集群,视吞吐量需求而定

百亿级模型(10B-100B):专业卡与消费卡的过渡区

百亿参数模型如LLaMA-2 13B/70B、GPT-3(175B)等代表了当前开源模型的主流规模,需要专业级GPU或高端消费卡的多卡配置才能有效处理。这类模型的开发和部署需要考虑更复杂的并行策略和通信优化。

训练需求:以LLaMA-2 70B为例,全参数FP16训练需要约140GB显存,因此至少需要两张A100 80GB通过NVLink连接,或三张RTX 4090(需使用DeepSpeed Zero-3等分布式训练框架)。更实际的方案是使用4-8张A100/A800进行数据并行训练,batch size设为每卡8-16以获得良好吞吐量。对于学术机构,也可考虑RTX 5090D多卡配置,虽然训练时间较长但前期投资大幅降低。

推理需求:70B模型的FP16推理约需70GB显存,因此需要单张A100 80GB或两张RTX 4090(通过模型并行)。实际部署中更常使用量化技术,如4-bit量化的70B模型仅需约28GB显存,可在单张RTX 4090上运行,但推理速度较慢。对于生产环境,建议使用A100 80GB或H100以确保低延迟和高吞吐。

推荐配置方案

  • 学术研究:4-8张RTX 4090或2-4张RTX 5090D

  • 企业训练:8张A100/A800或4张H100 NVLink集群

  • 生产推理:A100 80GB单卡或多卡(视QPS需求),或专用推理卡如L40S

千亿级模型(100B+):专业数据中心的专属领域

千亿参数以上的超大模型如GPT-4、Claude等属于当前AI技术的尖端领域,其训练和部署需要大规模专业GPU集群,通常只有科技巨头和顶尖研究机构能够承担。这类任务对硬件的要求呈现指数级增长,需要精心设计的分布式训练架构和高性能计算网络。

训练需求:据公开资料,GPT-4规模的模型训练需要数千张H100 GPU通过InfiniBand网络连接,训练周期长达数月。对于稍小的300B参数模型,至少需要16-32张H100配置才能保证合理训练效率。在硬件配置上,必须采用张量并行(tensor parallelism)、流水线并行(pipeline parallelism)和数据并行(data parallelism)相结合的3D并行策略,并优化通信模式以减少同步开销。

推理需求:千亿级模型的推理同样极具挑战,即使是8-bit量化的100B模型也需要约100GB显存。实际部署中通常采用多张H100或H800组成推理集群,结合连续批处理(continuous batching)和动态分片(dynamic splitting)技术提高资源利用率。对于特别大的模型,可能需要将不同层分布到不同计算节点,引入显著的通信延迟。

推荐配置方案

  • 超大规模训练:256+张H100 NVLink集群,配合InfiniBand网络

  • 合规市场训练:H800或A800多机配置,需优化通信模式

  • 高性能推理:8-16张H100推理专用服务器,或使用云服务弹性部署

模型规模训练最低配置微调最低配置推理最低配置推荐生产级配置
7B参数2×RTX 40901×RTX 40901×RTX 40801×A6000或2×RTX 4090
13B参数4×RTX 40902×RTX 40901×RTX 4090(8-bit)1×A100 40GB或2×RTX 5090D
70B参数8×A100 80GB4×A100 80GB1×A100 80GB(4-bit)8×A100/H100集群
130B参数16×A100 80GB8×A100 80GB2×A100 80GB(4-bit)16×H100 NVLink集群
300B+参数32×H10016×H1008×H100(量化)256×H100 + InfiniBand

硬件配置的优化原则

  1. 显存容量优先:确保单卡或多卡聚合显存能容纳模型参数、优化器状态和激活值

  2. 通信带宽优化:多卡训练时选择NVLink或InfiniBand等高带宽互联,减少同步开销

  3. 精度权衡:训练使用FP16/FP8混合精度,推理采用INT8/FP8甚至4-bit量化

  4. 能效比考量:长期运行的推理任务应选择高能效GPU如L40S或T4,降低电力成本

  5. 弹性扩展:云服务适合波动负载,固定负载可考虑自建集群获得更好TCO

模型规模与GPU配置的匹配是一门需要平衡性能、成本和时间效率的艺术。随着模型压缩技术和分布式训练框架的进步,同一硬件配置能够支持的模型规模正在不断扩大。开发者应当根据项目预算、时间线和性能需求,选择最适合的硬件方案,并在模型架构设计和训练方法上做出相应调整,以最大化资源利用率。未来,随着专用AI加速器和新型计算范式(如光计算)的发展,大模型硬件配置格局还可能发生显著变化,值得持续关注。

GPU选型的综合决策框架与未来展望

选择适合大模型任务的GPU是一项需要综合技术、经济和战略考量的复杂决策,远不止简单的性能参数比较。在实际项目中,决策者必须平衡短期需求与长期投资、峰值性能与总体拥有成本、技术领先性与供应链稳定性等多维因素。本节将提出系统化的GPU选型框架,分析不同应用场景下的最优选择策略,并展望大模型计算硬件的未来发展趋势,为组织构建面向未来的AI基础设施提供战略指导。

技术维度:性能参数与模型需求的精准匹配

GPU选型的首要考量是确保硬件性能能够满足目标模型的计算需求。这需要从计算能力、显存容量、互联带宽和软件生态四个关键维度进行综合评估:

计算能力应根据模型的计算密度选择。以FLOPs衡量的理论峰值性能虽然重要,但实际应用中更需关注特定操作(如矩阵乘法和注意力机制)的效率。例如,H100的Transformer引擎针对注意力计算进行了专门优化,在处理LLM时实际性能可能远超纸面算力。对于以卷积为主的视觉模型,则更看重FP32性能;而纯推理场景可重点考察INT8/FP8性能。

显存容量直接决定能够运行的模型规模。经验法则是:FP16训练所需显存约为参数量的20倍(包括参数、梯度和优化器状态),因此70B模型需要约140GB显存。通过梯度检查点、优化器分片和模型并行等技术可降低需求,但会增加实现复杂度。推理时,FP16模型需要参数量的2倍显存,4-bit量化仅需0.5倍。

互联带宽对多卡训练至关重要。NVLink比PCIe更适合GPU间通信,而InfiniBand则是多机互联的黄金标准。H100的NVLink 4.0提供900GB/s带宽,而中国特供版H800降至400GB/s,这对分布式训练效率有显著影响。小规模训练(如8卡以下)可优先考虑单机多卡配置避免网络瓶颈。

软件生态的成熟度直接影响开发效率。NVIDIA CUDA仍是兼容性最广的平台,支持所有主流深度学习框架。AMD ROCm和国产GPU的软件栈正在追赶,但在操作符覆盖率和性能优化上仍有差距。特定框架(如PyTorch)或编译器(如TVM)的支持程度也应纳入考量。

经济维度:总体拥有成本(TCO)的全面计算

GPU采购决策不能仅看初始价格,而应评估3-5年内的总体拥有成本,包括:

初始投资:专业卡如H100单价超过20万元,而消费卡RTX 4090仅约1.3万元。但训练70B模型需要8张A100(约1360万元)或24张RTX 4090(约31万元),后者虽然总价低但机架空间和运维成本更高。

能源消耗:数据中心级GPU的能效通常优于消费卡。H100的能效比约为RTX 4090的2倍,长期运行可节省大量电费。以每度电1元计算,100张GPU运行一年的电费差异可达数百万元。

运维成本:专业卡设计为7×24小时运行,故障率低于消费卡。A100/H100支持热维护和冗余电源,降低停机损失。云服务则可完全避免运维开销,适合波动负载。

折旧周期:AI硬件技术迭代快,平均生命周期为3-4年。消费卡残值率通常低于专业卡,但初始投资也低得多。灵活的云服务可避免技术过时风险。

配置方案初始投资能源成本运维成本总TCO适合场景
8×A800自建~1360万元~180万元~120万元~1660万元企业级持续训练
24×RTX 4090自建~31万元~540万元~200万元~771万元学术研究/临时项目
云服务(H100按需)无前期~900万元(按需)已包含~900万元波动负载/PoC验证
混合部署4×A800自有~600万元混合~80万元~1080万元平衡灵活与成本

战略维度:合规、供应链与未来扩展

除了技术和经济因素,企业还需考虑地缘政治、供应链安全和长期技术路线图等战略问题:

合规风险:美国出口管制限制了H100/A100等高端芯片对华销售,迫使中国企业选择H800/A800或国产替代品。重要项目应确保供应链合规,或提前规划替代方案。

国产替代:如IPU-X6000等国产加速卡虽然绝对性能有差距,但在特定场景下已可用,且不受出口管制影响。长期看,建立多元化的供应链有助于降低风险。

技术路线:选择GPU时需考虑与现有基础设施的兼容性,以及未来扩展路径。例如,从A100升级到H100比从AMD迁移到NVIDIA更容易。云服务的多架构支持也是一种弹性策略。

人才储备:CUDA工程师远比ROCm或OpenCL开发者好找。团队现有技能栈也影响硬件选择,重培训可能抵消部分硬件成本优势。

应用场景的决策树指南

结合上述维度,我们为不同应用场景提供简明的决策指南:

大型科技企业训练超大规模模型

  • 首选H100/H800多机集群,配合InfiniBand网络

  • 考虑混合精度训练和3D并行策略优化资源利用

  • 预算充足时可预留20-30%算力应对峰值需求

中型企业微调行业大模型

  • 8-16张A100/A800单机配置性价比最优

  • 采用LoRA等参数高效微调方法降低显存需求

  • 可考虑云服务进行初期验证,稳定后迁移到自有集群

初创公司部署商业AI服务

  • 推理任务选择A100/L40S或云服务弹性部署

  • 实施模型量化和动态批处理最大化吞吐量

  • 监控负载模式,在流量低谷时缩减资源

学术机构开展AI研究

  • 多张RTX 4090/5090D构建低成本集群

  • 利用梯度检查点和激活压缩技术突破显存限制

  • 参与云计算厂商的教育资助计划获取免费资源

大模型硬件的未来趋势

展望未来,大模型计算硬件将呈现以下发展趋势:

专用架构:如Google TPU、AWS Trainium等ASIC芯片针对LLM优化,可能挑战GPU主导地位。NVIDIA也将在下一代架构中强化特定于Transformer的加速单元。

Chiplet技术:通过多芯片模块集成(如AMD MI300)实现更高算力密度和灵活配置,国产GPU也采用这一路径。

光计算与存内计算:新型计算范式有望突破传统数字电路的能效瓶颈,但仍需数年才能商业化。

量子计算辅助:量子计算机可能用于特定子任务(如优化问题),与传统GPU协同工作。

边缘推理设备:随着模型压缩技术进步,更多推理负载将迁移到边缘设备,催生新一代AI加速芯片。

在这个快速演进的领域,组织应保持硬件战略的灵活性,建立多云和多架构支持能力,并持续跟踪技术发展趋势,才能在AI竞赛中保持长期竞争力。无论选择何种硬件路径,明确业务需求、科学评估选项并建立可扩展的架构,都是成功部署大模型的基础。

http://www.xdnf.cn/news/1046557.html

相关文章:

  • 软考 系统架构设计师系列知识点之杂项集萃(90)
  • AOP +ThreadLocal实现对接口监控
  • linux设置信号量系统参数
  • 【Dify系列】【Dify 核心功能】【应用类型】【三】【Agent】
  • Python 面向对象编程基础-类的创建与__init__实例化
  • [Java 基础]正则表达式
  • 第10章:Neo4j与其他技术集成
  • 图数据库neo4j部分用法浅讲
  • 基于SpringBoot和Leaflet的电影票房时序展示-以《哪吒2》为例
  • 6,TCP客户端
  • 【系统设计【3】】系统设计面试框架:从理论到实践的完整指南
  • 2013-2023年 地级市-财政透明度数据-社科经管实证数据
  • 使用Netlify进行简单部署
  • UE5 仿 鸣潮人物渲染
  • 【项目实训】【项目博客#09】HarmonySmartCodingSystem系统后端智能API检索与代码助手实现(6.2-6.15)
  • Kafka代码模板
  • 论文略读:Can LLMs Solve Longer Math Word Problems Better?
  • React 实现九宫格抽奖游戏
  • 语言特性适用的场景:卫星、火箭控制系统用什么开发语言?
  • 【小沐杂货铺】基于Babylon.JS绘制三维数字地球Earth(GIS 、WebGL、vue、react,提供全部源代码)
  • [windows工具]OCR识文找图工具1.2版本使用教程及注意事项
  • 使用 MCP 驱动的分布式智能扩展 Space-O-RAN
  • 电磁场与电磁波篇---电磁场的边界条件
  • 使用 Canal 实现 MySQL 数据同步的完整指南
  • MIT线性代数第三讲笔记
  • [python] 堆
  • 共享内存实现进程通信
  • 1.MySQL三层结构
  • Faithful Logical Reasoning via Symbolic Chain-of-Thought
  • 组策略关闭 Windows 防火墙指南(企业版/专业版)