ChatGPT安全引人忧,母公司发文称一贯注重安全性

OpenAI官方博客更新了一篇文章,重点谈到自身如何保障AI安全性,算是从侧面对人们的担忧进行回应。

OpenAI官方博客更新了一篇文章,重点谈到自身如何保障AI安全性,算是从侧面对人们的担忧进行回应。

随着以ChatGPT为代表的大型语言模型的流行,人们对其安全性的焦虑越发显著。在意大利于3月31日因隐私和安全问题宣布暂时禁用ChatGPT之后,加拿大也于4月4日宣布就数据安全问题调查ChatGPT母公司OpenAI。4月5日,OpenAI官方博客更新了一篇文章,重点谈到自身如何保障AI安全性,算是从侧面对人们的担忧进行回应。

ChatGPT安全引人忧,母公司发文称一贯注重安全性

为测试 GPT-4花了6个月时间

文章提到,在对最新的GPT-4模型完全所有训练后,团队花了 6 个多月的时间进行内部测试,以在公开发布时能够更加安全,并认为强大的人工智能系统应该接受严格的安全评估,需要在确保被监管的基础上与政府积极合作,制定最佳的监管方式。

文章也提到,虽然在实验测试过程中无法预测所有风险,但AI正是需要在实际使用中不断汲取经验、不断完善,以迭代出更加安全的版本,并认为社会确实需要一定时间来适应越发强大的AI。

重视儿童保护

文章称安全工作的重点之一是保护儿童,要求使用AI工具的用户年龄必须已年满18周岁,或者是在有父母监护条件下已年满13周岁。

OpenAI强调,不允许自身技术被用于生成仇恨、骚扰、暴力或成人内容等类型,与 GPT-3.5 相比, GPT-4 对拒绝响应禁止内容的能力提升了82%,并通过监控系统来监测可能存在的各类滥用情形,比如当用户试图将儿童性虐待材料上传到图像工具时,系统会阻止并将其报告给国家失踪与受虐待儿童中心。

尊重隐私,提高事实准确性

文章称,OpenAI的大型语言模型在广泛的文本语料库上进行训练,其中包括公开可用的内容、许可内容和人工审核人员生成的内容,不会使用数据对服务进行销售、打广告、对用户归档。OpenAI承认在训练过程中会从公共互联网上获得个人信息,但会尽力在可行的情况下从训练数据集中删除个人信息,并微调模型以拒绝获取个人信息的请求,积极响应要求删除系统中涉及个人信息内容的请求。

在提供的内容准确性上,文章称,通过用户对不实内容的标记反馈,GPT-4所生成内容的准确性比 GPT-3.5 提高了 40%。

文章认为,解决 AI 安全问题的实际方法不仅是投入更多时间和资源来研究有效的缓解技术,并在实验环境中测试在实际使用场景中的滥用情况,更重要的是,要把提高安全性和提升AI的能力齐头并进,OpenAI有能力用最好的安全防护措施来匹配最强大的AI模型,以越来越谨慎的态度创建和部署功能更强大的模型,并将随着AI系统的发展继续加强安全措施。

©本文为清一色官方代发,观点仅代表作者本人,与清一色无关。清一色对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。本文不作为投资理财建议,请读者仅作参考,并请自行承担全部责任。文中部分文字/图片/视频/音频等来源于网络,如侵犯到著作权人的权利,请与我们联系(微信/QQ:1074760229)。转载请注明出处:清一色财经

(0)
打赏 微信扫码打赏 微信扫码打赏 支付宝扫码打赏 支付宝扫码打赏
清一色的头像清一色管理团队
上一篇 2023年5月5日 06:03
下一篇 2023年5月5日 06:04

相关推荐

发表评论

登录后才能评论

联系我们

在线咨询:1643011589-QQbutton

手机:13798586780

QQ/微信:1074760229

QQ群:551893940

工作时间:工作日9:00-18:00,节假日休息

关注微信