你所在的位置: 首页 > 正文

技术观察:AI不应该产生或加深偏见

2019-09-11 点击:645
东永网技术员李永安8月31日报道:在30日举行的世界人工智能会议的“Tensor Flow,Infinite”主题论坛上,公司的AI原则给我留下了深刻的印象:

1。对社会有益

2。避免制造或加深偏见

3。开发和测试应基于安全性。

4。负责人性

5。纳入隐私保护设计原则

6。保持严格的科学卓越标准

7。可用于符合上述原则的目的

主持人强调了第二和第五点。它还举了一个例子:女性驾驶员在车祸中受伤的可能性比男性高47%,因为美国交通部不需要女性体型。虚拟碰撞测试。无论这个结论是否正确,它的出发点仍然非常好。

偏见是个人或团体持有的不公平和不合理的消极消极态度。它是人们从客观事实中建立起来的人和事的被动理解和态度。在大多数情况下,偏见是某些社会群体的成员仅仅基于其成员身份而形成的态度,并且经常被错误地否定或充满敌意。我们将在现实生活中形成各种偏见。这些偏见是无害的,有些令人沮丧。

偏见的形成往往是一个持续的过程。如今,人工智能技术,特别是根据用户喜好“推荐”的技术,我觉得正在产生和加深偏见。今天,我读了一些人工智能报告,所以我一直推荐人工智能相关的文章,但我想看看孟天子的罗天一在晚上的表现(嘿,这也是由AI完成的)。

在人工智能的名义下,我们不断推荐类似的东西,直到我们被淹没在信息岛。叶盲,没看到泰山,情况如何?如果这种情况不再发生变化,那么两只耳朵就不会闻到窗外的味道,而单心的只读AI推动将成为人类的噩梦。

移动百度

台州新闻网 版权所有© www.15ren.com 技术支持:台州新闻网 | 网站地图