
Salesforce's B2B AI Strategy: Security and Reliability are Paramount

AMD 调查显示,在全球 5000 名受访的 IT 决策者中,有一半以上由于担心数据安全,暂不采用人工智能系统。
B 端客户应用生成式 AI 服务过程里,最大的痛点是什么?Salesforce 相信他们已经找到了:安全问题。
当地时间周二, 在 Salesforce 年度客户大会 Dreamforce 上,公司官宣两大 AI 重磅更新:1)更加安全可靠的聊天机器人 Einstein Copilot;2)底层安全架构 Einstein Trust Layer(爱因斯坦信任层),能够阻止 LLM 开发商利用客户数据训练 AI。
公司 CEO Marc Benioff 在开场的演讲中直接痛批市场上所有 AI 聊天机器人:
“这些系统很好,但并不出色。它们会给出有误的答案。你可以称之为幻觉(Hallucination),但我称之为谎言。这些 LLM 是非常有说服力的骗子。”
他还表示,对 AI 开发者使用企业数据来训练模型的担忧,也让许多 B 端客户不愿意使用 AI。
他补充说:
“很多首席信息官说'我还没准备好把我的数据交给这些 LLM 来让他们的系统变得更智能。”
他的担心不无道理。芯片制造商 AMD 8 月份发布的研究表明,在全球 5000 名受访的 IT 决策者中,有一半以上表示,由于担心数据安全,他们的企业还没有准备好采用人工智能系统。三星是众多禁止员工使用 ChatGPT 等聊天机器人的公司之一,因为该公司担心敏感信息可能会被用于训练大模型。
通过 “信任层”,客户可以安全地使用大模型,而不必担心信息泄露的风险。只要通过 Salesforce 平台上接入大模型(如 OpenAI 的 GPT-4),客户传输的信息就能始终保密,AI 开发人员无法保留这些数据,也不能将这些数据用于训练。
Marc Benioff 表示:
“我们不看你的数据,你的数据不是我们的产品。我们是来让你变得更好、更有生产力、更成功的。”
Einstein Copilot 也和其他 AI 聊天机器人不一样。Salesforce 强调,相比其他产品,Einstein Copilot 能够显著减少胡编乱造现象出现的频率。
不过,值得指出的是,目前还没有已知的方法可以完全消除大模型的幻觉问题。
Einstein Copilot 目前正处于测试阶段。Salesforce 没有提供预计的发布日期。公司称,“信任层” 将于 10 月在 Salesforce AI 平台上全面推出。
