AI比人还要种族歧视,科学家也没办法!
很多有可能不知道,关于AI的一个严重的问题,就是族歧视和性别歧视。最近,约翰霍普金斯大学做了一项研究,使用了一个非常流行的AI算法,设计了一个机器人。然后进行了一些问题测试,结果显示:机器人选择男性比女性多 8%;白人和亚裔男性被选中的次数最多;黑人女性被选中的次数最少。
另一个著名的AI事件是罗伯特·麦克丹尼尔事件。根据芝加哥警察局的AI计算显示,麦克·丹尼尔比芝加哥 99.9% 的人口更有可能卷入枪击事件。根据是他卖大麻和赌博记录,以及他的朋友圈。罗伯特上了观察榜,被警察监视。从那之后,罗伯特被枪击了两次,因为他周围的人,认为他是警察的线人。
人工智能根据历史的数据运算后,得出结论,但AI不知道政治正确,你是怎么看呢?