解密企业级大模型智能体Agentic AI 关键技术:MCP、A2A、Reasoning LLMs- MCP内幕解析
解密企业级大模型智能体Agentic AI 关键技术:MCP、A2A、Reasoning LLMs- MCP内幕解析
其实现在大家如果你看网络上的很多的实现的时候,很多大的一些厂商,例如docker MCP,大家可以看啊,基本上都在全力的去支持MCP。因为它本身基于我刚才描述的这些核心价值。例如说这边你假设说你要有一些支付功能,这边有MCP stripe。这个是docker官方已经验证了verify一些。非常高质量的MCP的实现。但这边还有line,还有我对notion ,这个在 在我们企业中也有使用,到另外一个也就在我在的所有公司中都有使用的,就是现在的这个MCP redis,他已经推出。其实他推出没有多久的时间,但他一经推出,我们企业就立即把这个MCP redis部分投入了使用。
这里面有很重要的原因,其中一个很其中一个原因是,因为如果你使用docker的方式,你可以在虚拟环境下,就类似于这个沙箱的这个机制可以进行隔离。这对于安全,但另外一方面对资源的更有效的利润带来非常大的价值。还有一点就是大家可以看一下这个cloud flare MCP。大家可以看啊,这也是在你做企业级的这个产品的部署或者运维的时候,非常重要的一个平台。关于这个cloud的flair本身我就不说太多了。
因为大家如果作为一个开发者,肯定是多少都会有所接触的,那我们使用MCP的时候,可以借助这样的一个平台,来完成他的隔离和资源的最有效的应用。大家可以看在这边他谈到all of,然后这边MCB agent remote等等之类的,但这里面其实我们可以稍微看一下。
LLM的经典预训练Pipeline是怎样的?
答:基于Transformer decoder的LLM ,如ChatGPT、LLaMA等 ,一般先有预训练base模型 ,再用RLHF微调得到Chat模型。
Chat模型训练主要分三步:一是预训练,让模型从海量无标注文本数据集中学习通用知识;二是有监督微调(SFT) ,优化模型使其更好遵循特定指令;三是利用对齐技术,让LLM更安全有效地响应用户提示。