Alphabet 还提醒其工程师避免直接使用聊天机器人生成的计算机代码。谷歌对此表示,Bard 可能会给出不合适的代码建议,但它仍然可以帮助程序员。谷歌还表示,其旨在对其技术的局限性保持透明。
6 月 19 日消息,据路透社报道,四名知情人士称,谷歌母公司 Alphabet 在向全球推广其聊天机器人 Bard 的同时,也提醒员工在使用聊天机器人时要小心,包括其自家的 Bard。
上述知情人士称,Alphabet已经建议员工不要将其机密材料输入人工智能聊天机器人,谷歌证实了这一消息,并称这是保护信息的长期政策。
其中一些人还称,Alphabet 还提醒其工程师避免直接使用聊天机器人生成的计算机代码。谷歌对此表示,Bard 可能会给出不合适的代码建议,但它仍然可以帮助程序员。谷歌还表示,其旨在对其技术的局限性保持透明。
谷歌的谨慎态度也反映了企业安全标准的发展趋势,即警告员工不要使用公开可用的聊天程序。世界各地越来越多的企业对 AI 聊天机器人设置了防护措施,其中包括三星、亚马逊和德意志银行。据报道,苹果也是如此,但该公司没有回应置评请求。
根据社交网站 Fishbowl 进行的一项调查,在今年 1 月份有 43% 的专业人士在使用 ChatGPT 或其他 AI 工具,其中很多人没有告诉他们的老板。这项调查涵盖了近 1.2 万名受访者,其中包括来自美国顶级公司的一些员工。
IT之家注意到,目前谷歌正在向 180 多个国家推广 Bard,谷歌在 6 月 1 日更新的隐私声明中也表示:“不要在你的 Bard 对话中包含机密或敏感信息。”
©本文为清一色官方代发,观点仅代表作者本人,与清一色无关。清一色对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。本文不作为投资理财建议,请读者仅作参考,并请自行承担全部责任。文中部分文字/图片/视频/音频等来源于网络,如侵犯到著作权人的权利,请与我们联系(微信/QQ:1074760229)。转载请注明出处:清一色财经