人工智能延续人类文化,人工智能继承人类偏见

当前,人工智能作为第四次工业革命中的代表性技术,正在迅速改变我们所认知的世界。然而与此同时,现实世界中,由人所创造、从人类数据中学习观察的人工智能,也常常表现出和人类相似的偏见,不论是招聘中的性别歧视,还是人脸识别下的种族误判。 2021-03-19 10:22:03 人工智能 腾讯阿里字节等11家企业被约谈!国家出手,剑指语音社交和Deepfake技术 2021 年 3 月 18 日,小米、快手、字节跳动、鲸准数服、云账户、映客、喜马拉雅、阿里巴巴、网易云音乐、腾讯、去演等 11 家企业被约谈。 2021-03-19 09:47:22 技术研发人工智能 在电子商务中有效使用人工智能的十种方法 译文 “人工智能”如今已经成为一个流行术语,并被广泛使用。但是,在其宣传和炒作的背后,却有某些提供强大功能的技术奇迹,尤其是对于B2C企业而言。从本质上来说,人工智能属于计算机科学领域,它教会计算机如何解释数据并从中获得答案。 2021-03-19 09:00:00 人工智能科学电子商务 2021年一季度机器人行业新品盘点 2021年前三个月,机器人行业都有哪些新品呢? 2021-03-19 08:30:39 人工智能AI机器人 我用今日头条的算法逻辑,重新设计了MacOS 如你所见,这篇文章纯属我个人对操作系统的不满和愤忿。这个世界每时每刻都在进步,但依旧有不少东西还在依赖惯性思维运转着,才有了整篇的论点,YY 归 YY,但不得不说算法真是个神奇的东西,几乎已经深入到我生活中的点点滴滴,期待未来算法可以帮我解决更多苦力劳动,释放生产力,省出来的时间去王者峡谷大杀四方他不香么~ 2021-03-19 08:29:30 MacOS操作系统算法 律师解读商家、物业和车企采集人脸信息:消费者应坚决依法维权 3 月 18 日晚间消息,针对多起个人信息被商家和厂商违规采集并用以商业化目的,黑龙江海闻律师事务所主任李学军律师接受了新浪科技的采访,为广大用户在法律层面答疑解惑的同时,也提供了不少保护个人信息,避免个人信息裸奔的方法。 2021-03-19 06:23:59 人脸信息核心隐私人脸识别 2021年5大机器人趋势 智能机器人有助于灵活生产和弹性供应链。以下是国际机器人联盟(IFR)对机器人的趋势看法。 2021-03-18 19:19:35 机器人AI人工智能 训练速度远超3D CNN,提速3倍!Transformer Facebook AI推出了全新的视频理解架构TimeSformer,这也是第一个完全基于Transformer的视频架构。视频剪辑上限可达几分钟,远远超过当下最好的3D CNN,且成本更低。 2021-03-18 15:29:10 人工智能机器学习技术 大脑里装了4亿篇新闻,能与人类自主辩论的最强AI辩手来了 IBM最强AI辩手Project Debater代表了当前「计算辩论」研究的顶点。在充斥着海量信息和误导文化的当下,我们期待实现完全自主辩论的AI系统能够促进智能辩论的发展,帮助建立更合理的论点,做出更明智的决策。 2021-03-18 14:40:30 AI 数据人工智能 李开复:取代重复性的劳动,农村是AI机器人落地的最好场景 人工智能技术如何赋能农业?未来推动农业变革的最重要的一项技术会是什么?20年后,在一个被AI改造或影响的世界里,农业农村农民会有什么变化?

当前,人工智能作为第四次工业革命中的代表性技术,正在迅速改变我们所认知的世界。然而与此同时,现实世界中,由人所创造、从人类数据中学习观察的人工智能,也常常表现出和人类相似的偏见,不论是招聘中的性别歧视,还是人脸识别下的种族误判。

科技是人类现有文化的延伸。科技在延展了人类智慧的同时,也继承了人们的偏见和歧视。

当前,人工智能作为第四次工业革命中的代表性技术,正在迅速改变我们所认知的世界。然而与此同时,现实世界中,由人所创造、从人类数据中学习观察的人工智能,也常常表现出和人类相似的偏见,不论是招聘中的性别歧视,还是人脸识别下的种族误判。

歧视的发生不仅折射出社会中原就存在的性别陈规与偏见,并且,在设计与营销决策的过程中,人工智能还将进一步放大这些偏见。在科技能量日益增强的当下,思考和解决这些歧视的发生变得越来越重要。

[[388646]]

AI偏见,是人类意志的产物

与随机杂乱、物竞天择的进化过程不同,人工智能是人类意志的产物,是为了达成某种目的而形成的。尽管人工智能作为技术包含着一个客观结构,但人工智能同时服务于人的目的理性活动。也就是说,任何一种人工智能算法在诞生前就已经被概念化,并且在开发的过程中必然伴随着开发者的意志。

然而,从开发者的角度来看,美国劳工局的数据显示,虽然女性在劳动力市场中占了59%的比例,但在科技界往往只有20-30%的女性员工。在与程序开发相关的工作中,网站开发是女性比例最高的职业,但也只有不到40%。

据估计,截至2018年,仅仅在美国就有140万个与计算机相关的就业机会,而女性只会获得这其中29%的工作。人工智能的开发也很自然地继承了从业上的性别不平衡,没有足够的女性样本参与使得人工智能的知识不可避免地出现漏洞,这就是为什么会出现偏差错误的原因。

人工智能Now作为一家研究人工智能对社会影响的研究机构,其研究就表明,男性主导的人工智能产业与其生产的歧视性系统及产品之间有着明显的联系。比如,在机器学习领域里,其偏见的来源就包括不完整的或有偏差的训练数据集、训练模型代入人的标签和偏见,以及算法和技术的缺陷。

当训练数据中缺少某种统计类别时,人工智能习得的模型就无法正确衡量这部分特征。如果训练数据中男性比例过低,这一算法模型应用于男性时就有更大的误差;如果训练数据中关于“医生”的照片大部分是女性,搜索“医生”图片时,算法就会放大女性出现的概率。

于是,当科技从业者们的性别不平衡进一步表现在有偏差的训练数据集里时,性别歧视就出现了。亚马逊的Alexa和苹果的Siri等常见人工智能系统的核心——自然语言处理(NLP)就存在性别偏见,人工智能在词嵌入上的性别偏见,就像单词联想游戏一样。其中,这些系统通常将“男人”与“医生”相关联,将“女人”与“护士”相关联。而这也正是训练样本不完整、不足的典型代表。

从训练模型代入人的标签和偏见来看,绝大多数商业人工智能系统都使用监督机器学习,因此训练数据需要人为打上标签。这个过程中,就难免会有意无意将人的偏见编码到算法模型中。倘若人在设定标签时,将“身材的胖瘦”与“美”联系起来,算法自然会继承这一偏见。

同时,这些偏见在算法和技术的缺陷下进一步被隐匿,当算法和所有人的生活都紧密相关时,算法却以一种所有人都无法理解的方式在黑箱操作。“算法黑箱”带来的某种技术屏障使得无论是程序错误,还是算法歧视,在人工智能的深度学习中,都变得难以识别。偏见也因而无从解释。

此外,正是由于科技行业女性的低比例,使得科技行业弥漫的性别偏见难以打破、研发出来的人工智能产品折射出来的男尊女卑的“女性观”得不到纠偏。这种物化女性、加固性别刻板印象的趋势则进一步打击了女性进入科技界的意愿。从开发到应用,性别的歧视就在这样的不良循环里存在着,随时发生着。

[[388647]]

适时纠偏,重建技术公平

当前,偏见、歧视、错误都是人工智能进步的必经之路,其前提是人们能够在意识到偏见存在时做出改变,适时纠偏。

显然,人工智能算法由人类开发,被人类使用。开发者们的价值观和偏见都将对算法造成极大影响。这也是为什么社会需要更多的女性科研人员参与人工智能的设计,甚至是将女性用户的需求以及尊重性别平等的理念融入到人工智能的系统里的重要原因。

从技术开发的过程来看,不公正的数据集则是偏见的土壤——如果用于训练机器学习算法的数据集无法代表客观现实情况,那么这一算法的应用结果往往也带有对特定群体的歧视和偏见。事实上,算法存在的前提就是数据信息,而算法的本质则是对数据信息的获取、占有和处理,在此基础上产生新的数据和信息。简言之,算法是对数据信息或获取的所有知识进行改造和再生产。

由于算法的“技术逻辑”是结构化了的事实和规则“推理”出确定可重复的新的事实和规则,以至于在很长一段时间里人们都认为,这种脱胎于大数据技术的算法技术本身并无所谓好坏的问题,其在伦理判断层面上是中性的。

然而,随着人工智能的第三次勃兴,产业化和社会化应用创新不断加快,数据量级增长,人们逐渐意识到算法所依赖的大数据并非中立。它们从真实社会中抽取,必然带有社会固有的不平等、排斥性和歧视的痕迹。因此,算法偏见最直接的解决思路就是将原本不均衡的数据集进行调整。

[[388648]]

比如,确保训练样本的多样性,在训练数据中使用与男性数量相近的女性样本,确保给样本打标签的人们有着多元化的背景等。

2018年,微软就曾与专家合作修正和扩展了用于训练Face API的数据集。Face API作为微软Azure中的一个API,提供预训练算法以检测、识别和分析人脸图像中的属性。新数据通过调整肤色、性别和年龄等所占的比例,将肤色较深的男性和女性之间的识别错误率降低20倍,女性的识别误差率则降低9倍。

此外,也有公司尝试通过构建全球社区,大规模地把某个组织可能在寻找的任何信息汇集起来,并以这种广度和深度相结合的方式进行,这使得引入截然不同的数据来训练人工智能系统成为可能,以帮助克服算法偏见等问题。

毋庸置疑,构建更加公正的数据集是算法偏见重要的解决方法之一,在此基础上,还可以应用新的机器学习去除偏见的技术。比如,哥伦比亚大学的研究者曾开发的一款名为DeepXplore的软件,就可以通过技术手段使得系统犯错,以暴露算法神经网络中的缺陷。

DeepXplore使用差分测试,通过以不同的方式看待事物。如果其他模型都对给定的输入做出一致的预测,而只有一个模型对此做出了不同的预测,那么这个模型就会被判定有一个漏洞的方法,为打开黑箱做出了重要的贡献。

此外,2018年,谷歌也曾推出新工具What-If,作为TensorBoard中用于检测偏见的工具。利用该工具,开发者可以通过交互式可视界面和反事实推理探究机器学习模型的特征重要性,找出误分类原因、确定决策边界,检测算法公平性等。

显然,现实社会中的偏见产生的原因盘根错节,技术作为一面镜子,映射了人类社会许多固有的偏见。尽管长期以来,人们都一直致力于消除偏见,但人们至今也尚未彻底将其消灭。

偏见作为生活中不可避免的事实而存在着,但这并不意味着偏见和歧视也是新技术不可避免的方面。人工智能作为第四次工业革命中的代表性技术,始终有机会重新开始纠正偏见。技术由人类开发,为人类服务,而能否创造对每个人都有效和公平的技术,从来都取决于人类,而不是机器。

©本文为清一色官方代发,观点仅代表作者本人,与清一色无关。清一色对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。本文不作为投资理财建议,请读者仅作参考,并请自行承担全部责任。文中部分文字/图片/视频/音频等来源于网络,如侵犯到著作权人的权利,请与我们联系(微信/QQ:1074760229)。转载请注明出处:清一色财经

(0)
打赏 微信扫码打赏 微信扫码打赏 支付宝扫码打赏 支付宝扫码打赏
清一色的头像清一色管理团队
上一篇 2023年5月5日 18:55
下一篇 2023年5月5日 18:55

相关推荐

发表评论

登录后才能评论

联系我们

在线咨询:1643011589-QQbutton

手机:13798586780

QQ/微信:1074760229

QQ群:551893940

工作时间:工作日9:00-18:00,节假日休息

关注微信