Salesforce的B端AI思路:安全可靠最重要
来源:华尔街见闻 常嘉帅
AMD调查显示,在全球5000名受访的IT决策者中,有一半以上由于担心数据安全,暂不采用人工智能系统。
B端客户应用生成式AI服务过程里,最大的痛点是什么?Salesforce相信他们已经找到了:安全问题。
当地时间周二, 在Salesforce年度客户大会Dreamforce上,公司官宣两大AI重磅更新:1)更加安全可靠的聊天机器人Einstein Copilot;2)底层安全架构Einstein Trust Layer(爱因斯坦信任层),能够阻止LLM开发商利用客户数据训练AI。
公司CEO Marc Benioff在开场的演讲中直接痛批市场上所有AI聊天机器人:
“这些系统很好,但并不出色。它们会给出有误的答案。你可以称之为幻觉(Hallucination),但我称之为谎言。这些LLM是非常有说服力的骗子。”
他还表示,对AI开发者使用企业数据来训练模型的担忧,也让许多B端客户不愿意使用AI。
他补充说:
“很多首席信息官说‘我还没准备好把我的数据交给这些LLM来让他们的系统变得更智能。”
他的担心不无道理。芯片制造商AMD 8月份发布的研究表明,在全球5000名受访的IT决策者中,有一半以上表示,由于担心数据安全,他们的企业还没有准备好采用人工智能系统。三星是众多禁止员工使用ChatGPT等聊天机器人的公司之一,因为该公司担心敏感信息可能会被用于训练大模型。
通过“信任层”,客户可以安全地使用大模型,而不必担心信息泄露的风险。只要通过Salesforce平台上接入大模型(如OpenAI的GPT-4),客户传输的信息就能始终保密,AI开发人员无法保留这些数据,也不能将这些数据用于训练。
Marc Benioff表示:
“我们不看你的数据,你的数据不是我们的产品。我们是来让你变得更好、更有生产力、更成功的。”
Einstein Copilot也和其他AI聊天机器人不一样。Salesforce强调,相比其他产品,Einstein Copilot能够显著减少胡编乱造现象出现的频率。
不过,值得指出的是,目前还没有已知的方法可以完全消除大模型的幻觉问题。
Einstein Copilot目前正处于测试阶段。Salesforce没有提供预计的发布日期。公司称,“信任层”将于10月在Salesforce AI平台上全面推出。
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
©本文为清一色官方代发,观点仅代表作者本人,与清一色无关。清一色对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。本文不作为投资理财建议,请读者仅作参考,并请自行承担全部责任。文中部分文字/图片/视频/音频等来源于网络,如侵犯到著作权人的权利,请与我们联系(微信/QQ:1074760229)。转载请注明出处:清一色财经