A.I. “偏见”可能会带来灾难性的后果,专家们正在研究如何对抗它

科技 2018-12-15 12:39:06

人工智能预计将塑造世界的未来,因为从汽车到法律系统的一切都包含真正的智能技术。

一些科幻小说已经预测,人工智能有朝一日可能会占领世界并转向人类,但专家警告说,存在更直接的风险,即所谓的有偏见的人工智能。也就是说,当程序 - 理论上是中立且没有偏见时 - 依赖于错误的算法或不充分的数据来对某些人产生不公平的偏见。

最近的案例表明,这种担忧可能是目前的问题。

例如,面部识别技术已成为不具有种族包容性的头条新闻。根据麻省理工学院的一项研究,近35%的深色皮肤女性图像在面部识别软件上面临错误。相对较浅皮肤的男性仅面临约1%的错误率。

偏见也是谷歌决定阻止基于性别的代词的中心,其智能组合功能是其启用AI的创新之一。

然而,人工智能偏见的潜在问题更进一步,并证明了现实世界中的一些偏见如何影响技术。

结果有偏见
人工智能程序由算法或一组规则组成,这些规则可帮助他们识别模式,以便他们可以在很少人干预的情况下做出决策。但算法需要提供数据才能学习这些规则 - 有时,人类的偏见可能会渗透到平台中。

“获取大量不同的数据集有助于训练算法以维护公平原则,”微软负责亚洲企业,外部和法律事务的副总法律顾问Antony Cook表示。

然而,“偏差问题并不仅仅是通过生成大量数据来解决,而是人工智能系统如何使用这些数据,”他说。

咨询智囊团首席执行官奥利•布斯顿(Olly Buston)解释说,机器经常反映人类的偏见。

“例如,如果一项用于将人员列入高级职位的算法,那么就会对数据进行培训,这些数据反映了历史上男性持有更多高级工作的事实,那么该算法的未来行为可能反映了这一点,锁定在玻璃天花板上,”布斯顿说。

专家们呼吁人工智能领域更加多样化,并表示这有助于克服偏见。

“当我们谈论偏见时,我们首先担心创建算法的人们的关注点,”世界经济论坛人工智能和机器学习负责人Kay Firth-Butterfield今年早些时候告诉CNBC 。 “我们需要让西方的行业更加多元化。”

'多学科方法'
微软库克表示,来自各个领域的利益相关者需要不断参与讨论什么构成包容性人工智能 - 人类关注的问题不应仅由技术专家来处理。

需要采用“多学科方法”,以确保您的技术人员与技术人员合作。这样我们就能获得最具包容性的AI,“他说。 “人类的决定不是基于零和零......(而是基于)社会背景和社会背景。”

库克补充说,关于适用于人工智能的正确道德规则的辩论应该涉及技术公司,政府和民间社会。

道德含义
有偏见的人工智能会给个人带来严重的改变生活的后果。

据报道,2016年,美国法官在某些州使用COMPAS计划 - 或替代性制裁的惩教犯罪管理人员分析,以帮助决定假释和其他判刑条件,这些都存在种族偏见。

“COMPAS使用机器学习和历史数据来预测暴力犯罪分子将再犯的可能性。不幸的是,它错误地预测黑人比他们更容易再次犯罪,“新南威尔士大学人工智能教授托比沃尔什的一篇论文指出。

沃尔什告诉CNBC,虽然存在人工智能的偏见,但重要的是某些决定不留给软件。

他补充说,尤其是当这些决定直接损害一个人的生命或自由时。

这些决定的例子包括人工智能被用于雇用决定的可能性 - 或者在军事冲突期间用作自主武器的一部分。

沃尔什说:“如果我们努力寻找数学上精确的道德定义,我们就可以处理人工智能的偏见,从而能够将这些决策交给更公平的机器。” “但我们永远不应该让机器决定谁住,谁死。”

 

免责声明:如有关于作品内容 、版权或其它问题请于作品发布后的30日内与我们联系。

首页 广告服务 商务合作 寻求报道