柯逍介绍说, 在算法设计的时候, 往往会选择L1损失函数或者L2损失函数 。 若在将一个低分辨率人脸图像还原成高分辨率人脸图像的方法中, 使用L2损失函数, 得到的大多数人脸图像更像白人;而使用L1损失函数, 得到大多数人脸图像更像黑人 。 这说明由于损失函数的选择不同, 某个群体(黑人或白人)在一定程度上就会受算法的忽视, 进而产生偏见 。
这当中还存在另一种情况, 假如数据带有少量的偏见, 算法系统会将其放大, 并变得更具有偏见 。 一项研究表明, 如果初始数据中, 下厨与女性的联系概率是66%, 将这些数据喂给人工智能后, 其预测下厨与女性联系起来的概率会放大到84% 。 一般来说, 机器学习系统会选择最符合通用情况的策略, 然而这样会导致一些非典型情况或较为特殊情况被忽略 。
除此之外, 产生偏见的原因还有相似性的偏见 。 信息推送系统总会向用户推荐他已经看到、检索过的相关内容 。 最终的结果是导致流向用户的信息流都是基于现存的观点和看法 。 “系统会自动帮助用户屏蔽与他们意见相左的信息, 这就催生了一个信息泡沫, 用户看到的都是人工智能让你看到的 。 这种偏见根本上也是数据与算法共同作用产生的 。 ”柯逍说 。
“总体而言, 偏见还是源于规则制定者 。 ”中锐网络人工智能产品总监叶亮说, 工程师从头到尾参与了整个系统设计, 尤其是机器学习的目标设定 。 算法就好像一只嗅探犬, 当工程师向它展示特定东西的气味后, 它才能够更加精准地找到目标 。
算法纠偏工具已经上岗
近期, 国际多家机构相继宣布禁用人脸识别技术 。 有色人种被还原成白人的事件, 再次掀起了人们对于人工智能系统产生偏见的批判浪潮, 也再次警醒人们, 技术带有偏见所带来的潜在危机 。
偏见可能导致无辜者蒙冤 。 在2018年夏天, 英国媒体就报道过, 由于人脸识别技术的误判, 导致一名年轻黑人男性被误认为嫌疑犯, 在公众场合被警察搜身 。
也有报告显示, 一些国外执法机构可以根据AI识别出的发色、肤色和面部特征对视频中的人物进行检索 。 这种技术上的偏见也在一定程度上放大了人们的偏见 。
除了对人种与性别的识别偏差之外, 人脸识别技术还因其在侵犯隐私方面的问题而引起担忧 。 2020年初, 美国一家人脸识别技术公司便受到了严密的审查, 有关部门发现, 其面部识别工具由超过30亿张图像构建而成, 然而这些图像大部分都是通过抓取社交媒体网站收集的, 并且已被许多企业广泛使用 。
偏见存在的同时, 一批新兴的算法纠偏工具也涌入了人工智能 。
早在2018年, 脸书曾发布一个算法模型, 表示会在算法因种族、性别、年龄等因素做出不公正判断时发出警告以提醒开发者;2019年麻省理工学院就提出了一种纠偏算法, 可以通过重新采样来自动消除数据偏见 。
那么克服偏见还需要人工智能技术做出哪些努力?“开源方法和开源技术都有着极大的潜力改变算法偏见 。 ”叶亮指出, 开源方法本身十分适合消除偏见程序, 开源社区已经证明它能够开发出强健的、经得住严酷测试的机器学习工具 。 如果线上社团、组织和院校能够接受这些开源特质, 那么由开源社区进行消除算法偏见的机器设计将会顺利很多 。
【谁才是让AI产生偏见的幕后推手?】柯逍认为, 可以看出偏见基本来源于数据与算法, 加强对人工智能所使用的数据、算法以及模型的评估, 能够在一定程度上缓解潜在的、可导致偏见与歧视的因素 。 同时, 人工智能的偏见其实都是人类偏见的反映与放大, 因此人们放下偏见才是最根本的解决方案 。
推荐阅读
- 如何让宝宝健康过夏天,这三种病要警惕
- 怎么查个人开宾馆记录 查宾馆入住记录找谁
- 哄老公开心的方法
- 周生如故杨邵是谁演的
- 宝宝巴士原创 看动画让宝宝远离居家危险培养安全意识
- 宝宝巴士原创3D早教动画 演员粗心忘带票保安不让进怎么办
- 怎么设置让对方看到我的来电秀
- 狗大便带血怎么回事
- 小七是什么狗
- 机器人配送商品 数字化让快递更“快”了
