作者 | 耳洞打三金
大家好我是三金,今天又是上班摸鱼的一天。
我在网上划水的时候看到这样一条消息:
YouTube AI算法因种族主义而将 Black 和 White混淆,从而封禁了一个国际象棋频道。
(虽然没有明说,但大意是将黑棋和白棋混淆成黑人和白人。)
原来是在几个月前,一位在国际象棋视频圈内很出名的YouTube博主Agadmator,表示他的YouTube频道被官方封禁,是因为他的视频中包含来该网站所谓的有害和危险内容。
Agadmator在YouTube上拥有超过一百万的订阅用户,被认为是油管上最受欢迎的国际象棋垂直博主。
Youtube这么大的一个视频网站只有人工审核员来过滤掉违禁内容是不现实的,AI算法当然要派上用场,但是在讨论国际象棋对战的语境下,该AI算法似乎无法区分仇恨言论和正常对话。
YouTube官方并未解释为何封禁Agadmato的原因,但Agadmato的频道在24小时后恢复原状,导致他推测罪魁祸首是他在这个视频中使用black against white一词。
他的本意是黑棋对抗白棋,难道是被AI算法识别成了黑人对抗白人?
之后,科学家出场的时间到了。
卡内基·梅隆语言技术学院的计算机科学家Ashiqur KhudaBukhsh怀疑Agadmato是正确的。
KhudaBukhsh说:我们不知道YouTube具体使用什么工具来检测,但如果它们依靠人工智能来检测种族主义语言,则可能会意外触发YouTube的AI过滤器进而发生这种乌龙事故。
为了检验这个理论,KhudaBukhsh和Rupak Sarkar研究员在两个最先进的语音分类器上进行了测试,这两个AI软件可以经过训练以检测仇恨语音。
使用该软件对来自五个受欢迎的YouTube国际象棋频道的680,000条评论进行了测试之后,研究员发现样本集中标记的评论中有82%没有明显的种族主义语言或仇恨言论。
KhudaBukhsh和Sarkar两位研究员在本月AAAI 2021 会议上的一次演讲中说道,诸如black(黑棋),white(白棋),attack(攻击)和threat(威胁)等国际象棋术语似乎被错误地识别分类了。该软件的准确性取决于所提供的样本,而YouTube分类器的训练数据集可能很少包含国际象棋对话的样本,从而导致算法进行了误分类。
看到这里三金我就郁闷了,就这?这才哪到哪啊?
只是黑人攻击威胁白人就算种族主义和仇恨言论了?
这要是搁在中国象棋的语境下那不得变成黑人吃白人了?
(象棋吃子)
如果是这样,那AI算法是不是要赶紧帮忙报警?啊?
唉,美国人在种族主义和仇恨言论这块上的风气大家懂得都懂。
研究人员之后建议社交媒体平台应该将国际象棋语言纳入AI算法中,以防止进一步的困扰。试想,如果像Radic这样出名的博主被错误地封禁,那么对其他不太知名的博主来说,这很可能正在悄然发生。
YouTube拒绝指出是什么原因导致了Agadmato的视频遭到封禁,但后来又表示 当我们注意到视频被误删除后,我们迅速采取行动恢复了被删除的视频。
所以说从这件事上可以看出人工智能仍是不够智能,太依赖训练数据集了,也很是缺乏常识,本质就是一个人工智障。
那么请问人工智障(乌龙)哪家强?
1、特斯拉在无人墓地感应到行人
近日,国外一网友在 TikTok 上发布视频称,自己驾驶特斯拉汽车在空旷放入无人墓地行驶,车辆却检测到了周围有行人,非常的瘆人
。
随着汽车缓慢向前行驶,鬼影竟然也跟着在移动。
难道是摄像头把墓地旁边的葬礼花圈误识别为是一个人?
可是这样的话,系统就会检测到很多的鬼影才对,因为视频中可以看到墓地里摆了很多的花圈。
那会不会是有人碰巧在上坟呢?
也不对,因为事实证明当把镜头转移到墓地和周围的环境的时候,车主确实发现这里空无一人。
此后,有其他网友也发出了特斯拉汽车在无人街道感应到行人的视频。
2月15日,福建厦门一网友则发现特斯拉汽车在两旁无车时显示有公交,而实际两旁并无车辆。网友们纷纷表示有点吓人。
当事人称这种情况持续了十几分钟,而特斯拉售后表示这可能是雷达误侦测。
据了解,特斯拉感应系统采用摄像头与毫米波雷达融合探测,来识别和感知真实环境中的物体,摄像头获得的图像,部分是行人,其他是车辆、动物或者其他障碍物,准确识别障碍物的具体类别,对车内人员的安全非常重要,对其他人也是如此,系统准确而及时的识别障碍物就非常关键。
2、人脸识别乌龙,导致男子无辜蹲狱10天
新泽西州的一名男子蹲了10天的牢房。人脸识别软件开发商Clearview AI因使用从社交媒体获取的照片来识别犯罪嫌疑人而一直受到密切的关注。
据新泽西先锋媒体(NJ Advance Media)报道,警方在全力搜捕一名盗窃嫌疑人 ,此男子从一家酒店礼品店行窃,在警方赶到时, 该男子交出一张驾照,名字是Jamal Owens。
后来该男子逃出酒店,驾驶车辆逃离警察的追捕。
而警察后来在没有验指纹、没有测DNA,仅靠现场拍摄的驾照图像结合人脸识别系统,结果人脸数据库发现有一名名叫Njeer Parks与嫌疑人的照片高度匹配,这样就锁定了Nijeer Parks为罪犯。
Nijeer Parks被捕后拍摄的照片。
Nijeer Parks之后被警方拘留,但尴尬的是,他压根就没去过案发现场所在的那个城镇,甚至,他根本就不会开车,连驾照都没有。
最后,在法官向检察官要求出示人脸识别软件之外的更多证据后,检察官才撤案,但Nijeer Parks可是因此白白蹲了10天的牢房。
3、AI摄像机把光头当足球
在两个月前苏格兰足球冠军联赛的一场比赛上,场边的AI摄像机将裁判员的光头识别成了足球,疯狂追了一整场。
无论哪支球队进攻,无论哪个球员带球,AI摄像机都选择了视而不见。
相反,它却不弃不离地跟着一名边裁,并不时给出锃光瓦亮的光头C位特写。
所以电视机前的球迷们压根看不到任何球员的跑位,而是欣赏了一整场的光头盛宴。
4、Google图像识别算法把黑人识别成大猩猩
在遥远的2015年,一黑人哥们Jacky Alciné震惊地发现,自己被Google图像识别算法歧视了:Google Photos竟然把他的朋友分类成了大猩猩(gorilla)!
Google当时迅速道歉并承诺整改。
可是到了2018年时,据《连线》杂志报道,谷歌并没有真的整改,只是直接懒省事去掉了大猩猩(gorilla)这个类别。
很好,谷歌很有精神嘛,这样一来就再也不会有黑人群体被识别成大猩猩了。不过,大猩猩也不会有机会被认作大猩猩了,因为算法里没有大猩猩这个物种存在了。
Google之后也承认了从图像识别的数据集标签中删掉了大猩猩一项,后来连黑猩猩也被屏蔽了。
以上三金只是简单举了几个案列,人工智能火了这么多年,还是强烈依靠数据集、没有常识、不能举一反三,难道真的只能应了下面这句话吗?
有多少人工就有多少智能......
参考链接:
https://www.youtube.com/watch?v=TgPp7ltPd8Y
https://www.dailymail.co.uk/sciencetech/article-9279473/YouTube-algorithm-accidentally-blocked-chess-player-discussing-black-versus-white-strategy.html
https://www.news18.com/news/buzz/youtube-ai-blocked-chess-channel-after-confusing-black-and-white-for-racist-slurs-3454316.html
[赠书福利]
AI科技评论本次联合【博文视点】为大家带来12本《深度学习500问:AI工程师面试宝典》正版新书。
在2月18日文章《《深度学习500问》正式出版!GitHub星标数超4.2万的火爆之作 | 赠书〉留言区留言,欢迎大家畅所欲言,谈一谈你对本书的看法和期待或者在学习深度学习时遇到的困难。
AI 科技评论将会在留言区选出 12名读者,每人送出《深度学习500问:AI工程师面试宝典》一本。
活动规则:
1. 在本文留言区留言,在综合留言质量(留言是敷衍还是走心)和留言点赞最高的读者中选出12位读者获得赠书。获得赠书的读者请联系 AI 科技评论客服(aitechreview)。
2. 留言内容会有筛选,例如选我上去、这书写的很棒(仅仅几个字)等内容将不会被筛选,亦不会中奖。
3. 本活动时间为2021年2月18日 - 2020年2月25日(23:00),活动推送时间内仅允许赠书福利中奖一次。
特别声明:文章来源用户上传并发布,本站只提供信息存储服务,不拥有所有权,内容仅供参考。