新智元报导
来历:Science,Nature
修正:向学、张佳
【新智元导读】近来,Science发布了一个AI疯癫发生的视频,AI守门员以最搞笑的办法让对手抓狂,AI相扑变成大型碰瓷现场。这项研讨标明,AI太好骗,不只会被“骗”去看一些不应看的东西,还会被“骗”去做一些不应做的工作!戳右边链接上新智元小程序了解更多!
人工智能一向被视为学习才能极强、学习速度极快的“超级物种”,秒杀人类不解说、无商议;无论是在世界围棋竞赛,仍是在星际争霸游戏对决,均屡次打败人类尖端选手,所向无敌,惟我独尊。
但最近,Science发布了一个AI视频推翻了我们对AI的认知,纵然是“聪明绝顶”的AI,也很简单被“坏朋友”带歪,变得让人啼笑皆非。
戳小程序检查Science完好视频“以最搞笑的办法观看AI守门员的心思状况”:
视频中,“小红人”和“小蓝人”看似是“癫痫发生”,其实是在展现一个人工智能(赤色)以一种意想不到的办法打败另一个人工智能(蓝色)。
这是宣布在NeurIPS(Neural Information Processing Systems)2019 上的一项研讨。这项研讨是在模仿运动中进行的:足球、相扑及或人阻挠跑步者越线的游戏。一般这2个竞争对手都是经过相互竞赛来练习的。
小红人伪装倒地利诱小蓝人(足球运动)
在上面这个动图中,小蓝人原本要射门,但一看到守门员小红人倒了,自己也抽搐起来,几乎像癫痫发生,连球都够不到了。
小红人伪装倒地利诱小蓝人(相扑运动)
这张动图中,两个AI原本应该相扑(也或许是摔跤),小红人先来个假摔,小蓝人见势也立刻跪倒了,几乎是上演了一场“碰瓷”大戏。
小红人伪装倒地利诱小蓝人(阻挠越线)
这张动图中,小红人本应该阻挠小蓝人“越红线”,但小红人没能抱住小蓝人的大腿,让小蓝人绕过去了,眼看着小蓝人要打破红线,小红人扑通一声跪倒在地,小蓝人也跟着倒下了,未能打破红线。
被小红人这样搅扰后,小蓝人输掉的游戏次数居然是一般的情况下的2倍!
这项新研讨标明,AI很简单上圈套,不只会被“骗”去看一些不应看的东西,还会被“骗”去做一些不应做的工作。幻想一下假设用到无人驾驶,会有多么风险?
细小改动就能捉弄AI,AI间隔真实的“聪明”还有点远
让人工智能变得“更聪明”的一个办法是让其从环境中学习。例如,未来的轿车能够得到更多的“经历”,从而更好地“阅览”路牌并避开行人。但这正好也是黑客用来“捉弄”人工智能的“惯用手段”,他们可经过这些体系进行“对抗性进犯”,比方经过精巧地修正图画就能够“捉弄”人工智能,一个带有几张贴纸的泊车标志或许会被人工智能体系视为限速标志(这肯定会让无人驾驶轿车公司在微风中瑟瑟发抖!)。
使用贴纸,图画辨认算法将泊车标志认作限速标志
在一次世界机器学习会议(International Conference on Machine Learning ,ICML)上,一个研讨团队报导了他们的3D打印乌龟。关于人类来说,它看上去就像一只乌龟;但关于人工智能,它们却有着不同的观点——在大多数时分,人工智能会以为这像是一支步枪!
使用难以发觉的元素,对抗性进犯诈骗图画辨认算法,使其将3D打印乌龟认作步枪
在下面这张图中,用机器学习模型辨认最左边的图画,能够正确辨认出来这是一只熊猫。但是在图画中增加了中心所示的噪声之后得到的右侧图画,居然被模型辨认成一只长臂猿(并且置信度还十分高)!
这说明,对输入的改动——以人类一般发觉不到的细小改动的方式——就或许会打乱最好的神经网络,从而改动模型的猜测成果。
AI如此好骗,你怎么看?欢迎来小程序一同讨论~
参考资料:
https://www.sciencemag.org/news/2019/12/watch-ai-goalie-psych-out-its-opponent-most-hilarious-way