给罗盘”:

•伯恩解释了为什么AI是容易受到偏见和科技公司和组织如何对抗AI的偏见。

•你和/或你的组织准备反抗AI偏见通过这些途径之一?伙伴关系可以帮助你最大限度的影响?

•了解人工智能在教育规划路径


传统智慧,通常由硅谷,兜售的是当偏见在决策过程中,人工智能是伟大的均衡器。表面上是有道理的:如果我们委托复杂的人工智能的决定,这都变成了关于数学,计算冷本色的我们可能持有的偏见或成见的人。

当我们进入人工智能时代的初级阶段,这个思维的谬误在一些壮观的方式暴露了自己。谷歌的第一代人工智能视觉识别的图像具有非洲血统的人是大猩猩。语音命令软件在汽车难以理解女性。在2016年的总统选举中,Facebook的算法fear-stoking传播是其最脆弱的用户,允许外国势力有意义的摇摆的选举是世界上最强大的办公室。

对于任何新技术,人工智能反映了其创造者的偏见。社会的偏见是一个顽固的问题,阻碍了人类的文明。我们引入人工智能可能会让事情变得更糟。

那么我们该怎么做呢?
  1. 第一步是创建透明度标准、开源的代码,使人工智能那么神秘莫测。
  2. 称为可辩解的AI已经扎根的新领域,专注于创造未来的人工智能系统,可以解释他们的决定对人类的推理用户。
  3. 在团队中最重要的将是实现多元化的背景设计和架构设计人工智能系统,跨越种族、性别、文化、社会经济背景。

阅读全文人工智能的偏见通过将在制造伯恩。