Salesforce从AI模型转向智能体AI战略转型

Salesforce从AI模型转向智能体AI战略转型

Salesforce正在将重心从部署大语言模型转向开发专业化、高效且可信赖的人工智能智能体 , 以解决特定的商业挑战 。
Salesforce执行副总裁兼首席科学家Silvio Savarese在接受Computer Weekly采访时表示 , AI对企业的真正价值不在于底层模型 , 而在于构建在其之上的智能体能力 。
\"整个公司正在从对模型的痴迷转向更关注智能体 , \"他说 。 \"对客户来说 , 真正重要的不是模型 , 而是智能体 。 智能体正在改变我们的业务方式 。 \"
为实现这一目标 , Salesforce研究团队将智能体分解为四个关键组件:记忆、推理\"大脑\"、用户界面和功能调用能力 。 这涉及创建专有的向量嵌入来改善数据检索和信息组织(记忆) , 增强Atlas推理引擎在规划复杂任务时的可靠性和准确性(大脑) , 以及创建先进的语音模型来实现更自然的对话(界面) 。
在功能调用方面 , 这位从斯坦福大学终身教授职位加入Salesforce的计算机科学家Savarese表示 , 研究团队创建了自己的大型动作模型(LAM) , 在执行应用程序编程接口(API)调用和执行操作方面比大语言模型更出色 。
\"大语言模型没有被训练来执行动作 , 它们被训练来自动完成文本 , \"他说 。 \"LAM的不同之处在于 , 在训练过程中 , 我们明确地整合了环境对特定动作反应的反馈 。 因此 , 执行功能调用的能力更加准确 。 \"
Savarese表示 , Salesforce对智能体AI的关注也解决了企业对部署大型通用AI模型的成本和效率担忧 。 他认为应该将合适的模型匹配到合适的用例 , 用更小、专业化的模型为专门的智能体提供动力 , 处理更窄的任务 , 比如处理产品退货或管理密码 。
\"我们发现 , 只要用例定义明确 , 较小的模型可以实现与大型模型相当的性能 , \"他说 , 并补充道较小的模型在资源和能源消耗方面也更少 。 不过 , Savarese指出 , 在需要智能体编排器协调多个智能体工作的复杂工作流程中 , 较大的模型仍然有用 。
通过智能体AI , Salesforce正在为其所称的企业通用智能(EGI)做准备 , 这是关于在业务关键领域推动智能体能力的边界 , 比如执行深度研究而不是单一搜索 , 或为复杂营销活动启用长期规划 。 这与更面向消费者的人工通用智能(AGI)目标不同 。
\"社区一直痴迷于AGI , 但对于企业 , 我们不需要解决数学问题或通过大学考试 , \"Savarese说 。 \"我们需要做的是确保在对企业有用的任务上实现高水平的准确性和一致性 。 我们需要确保客户智能体在正确的时间给你正确的信息 。 \"
支撑Salesforce所有智能体AI工作的是Einstein Trust Layer , 它整合了企业级保护措施 , 如数据掩码、零数据保留和审计跟踪 。 他还强调了构建能够意识到自身局限性的智能体的重要性 , 以防止幻觉并允许人工监督 。
\"智能体达到这种意识水平至关重要 , \"Savarese说 。 \"如果智能体对提出答案过于自信 , 就有可能出现幻觉并绕过人类 。 因此 , 重要的是找到某种方式让它评估自己的信心 , 其中信心较低的决策可以由人类检查 。 \"
Q&A
Q1:什么是企业通用智能EGI?与AGI有什么区别?
A:企业通用智能(EGI)是Salesforce提出的概念 , 专注于在业务关键领域推动智能体能力边界 , 如执行深度研究、长期营销规划等 。 与面向消费者的人工通用智能(AGI)不同 , EGI不需要解决数学问题或通过考试 , 而是确保在企业有用的任务上实现高准确性和一致性 。
Q2:大型动作模型LAM与大语言模型有什么不同?
A:大语言模型主要被训练来自动完成文本 , 而大型动作模型(LAM)在训练过程中明确整合了环境对特定动作反应的反馈 。 这使得LAM在执行API调用和执行操作方面比大语言模型更加准确 , 更适合实际的功能调用任务 。
Q3:Salesforce如何确保智能体AI的安全性和可信度?
A:Salesforce通过Einstein Trust Layer提供企业级保护 , 包括数据掩码、零数据保留和审计跟踪 。 同时构建能够意识到自身局限性的智能体 , 让它们评估自己的信心水平 , 将信心较低的决策交由人类检查 , 以防止幻觉并确保人工监督 。
【Salesforce从AI模型转向智能体AI战略转型】

    推荐阅读