人工智能眼中的世界,会是这个样子?
- +1 你赞过了
【天极网家电频道】从曼努埃拉·维罗索(Manuela Veloso)位于布鲁克林一栋写字楼19层的办公室窗口向外望出,美景动人心魄——湛蓝的天空、纽约港和自由女神像。然而此刻,吸引我们目光的却是对面大楼毫无特色的窗玻璃。
从对面的窗户里,我们可以看到椅子、桌子、台灯和文件,但它们看起来有些不对劲;因为它们并不真的在那里。它们的实物实际上位于我们这一侧——很有可能就在我们所在的大楼。午后明丽的阳光照亮了玻璃,将窗户短暂地变成了镜子。于是,我们就看到了半空中被阳光照亮的办公用品,虚无飘渺,丝毫不受地心引力的束缚。
曼努埃拉·维罗索是卡内基·梅隆大学计算机科学和机器人技术专业的教授,我正在和她讨论机器如何感知和思考——一个比我预想的难解得多的话题。“机器人怎样才能发现这是倒影呢?”她示意窗玻璃上的光影,“诸如这样的事情,就是对机器来说困难的事情。”
近年来,人工智能已经以无情的速度攻克了很多难题。在过去几年中,一种以高效著称的人工智能——“神经网络”——已经在一些领域里赶上、甚至超越了人类,包括研发新药,挑选最佳工作候选人,甚至还有驾驶汽车。神经网络的构造模仿了人类大脑,现在,它(通常)已经能够辨别出文章的好坏,并且(通常)能以相当高的精度从图片中分辨出目标物体。神经网络的应用日益广泛,不仅在随处可见的日常领域中,比如谷歌的搜索引擎、亚马逊的推荐目录、脸书的好友动态和垃圾邮件的过滤,还有军事、金融、科研、比人类驾车更靠谱的自动驾驶等重要工作。
神经网络有时会犯一些人们可以理解的错误(的确,窗户里的桌子看起来非常真实;甚至连我也很难看出它们只是倒影),但另外一些难题,却会让它们给出让人难以理解的回答。神经网络的运作方式,是执行算法——关于如何完成任务的指令。算法当然是由人类写成的,但有时,神经网络会得出十分诡异的结果:不正确,但也不是人类能理解的那种错误。事实上,这些运行结果看起来简直像是外星生物的杰作。
这种诡异的运行结果并不多见,但它们也并非随机差错。最近,研究人员已经设计出了可靠方法,能让神经网络一遍又一遍得出这种诡异的非人类结果。这表明我们不应该假设我们的机器会用我们的思维方式思考。神经网络的思维方式是不同的。但我们并不知道到底有何不同,或者究竟为何不同。
就算我们现在还没到依赖神经网络来料理家务、驾车出行的程度,这个念头也相当令人不安。毕竟,我们对人工智能的依赖越多,就越需要它们具备可预测性,尤其是在可能的失灵方面。如果不明白机器是怎么做出一些怪异的举动的,以及它们为什么会这么做,我们就不能确保这类事件不会再次发生。
不过,这种偶尔的诡异机器“想法”或许也是人类学习的好机会。在接触到外星智能之前,神经网络或许是我们所知的最强有力的人类以外的思考者。
神经网络感知与推理的方式与人类的差异或许能向我们揭示,在人类的物种限制之外,智能是如何运作的。伽利略向我们展示了地球在宇宙中并非独特,达尔文向我们证明了人类在生物中亦非例外。阿尔伯塔大学的人工智能研究者约瑟夫·莫达伊尔(Joseph Modayil)认为,计算机或许也会给智能领域带来类似的颠覆。“人工系统向我们展示了智能的无限可能性,”他说。
然而,我们首先要确保自动驾驶车辆不会把校车错认成橄榄球队服,也不会把照片中的人类标记成大猩猩或者海豹(谷歌的一个神经网络最近就犯了这个错误)。过去几年来,许多计算机科学家痴迷于这个问题以及可能的解决方案,但他们仍未找到。
的确,校车和橄榄球服都有黄黑相间的条纹,但也只有AI会把它俩搞混吧……
杰夫·克鲁(Jeff Clune)是怀俄明大学计算机科学系的助理教授。偶遇了几次神经网络的怪异行为后,他在最近开始了相关领域的研究。“我还不知道有谁能很好地理解为何会发生这样的事。”他说。
去年,在一篇名为《深度神经网络很好骗》1(Deep Neural Networks Are Easily Fooled)的文章中,克鲁与他的合著者,阮昂(Anh Nguyen)和杰森·约辛斯基(Jason Yosinski)宣布他们制造出了一个用于识别物体的成功的系统,而该系统99.6%确信左图是一只海星,同样99.6%确信右图是只猎豹。
反过来,另一组由来自谷歌、脸书、纽约大学和蒙特利尔大学的研究者组成的团队也开发了一个神经网络系统,该系统认为左图是一只狗,而右图(仅在左图的基础上略微改变了像素)是一只鸵鸟。
右边的狗就是研究人员们所说的“对抗样本”(adversarial examples)的一个例子2。这些图片与分类正确的图片仅有细微的差异,但足以让先进的神经网络得出令人失望透顶的判断。
神经网络是机器学习的一种形式,它通过分析数据而得出结论。而机器学习不仅仅被用于可视化任务,普林斯顿大学信息技术政策中心的博士后研究员索伦·巴罗卡斯(Solon Barocas)说。他指出,在2012年,一个为美国教育考试服务中心(ETS)评估论文的系统将下述文字(由前MIT写作教授莱斯·普尔曼(Les Perelman)创作)判定为好文章:
在当今社会,大学的形象模糊不清。我们需要它来学会生存,亦需要它来学会爱。更重要的是,若非没有大学,世界上的大多数学习将会变得臭名昭著。然而,大学学费却不可胜数。世界各国面临的重要问题之一便是如何削减大学学费。一些人认为大学学费的攀升是由于学生对大学的物质条件期望过高,另一些人则认为高额学费是大学体育造成的。而现实是,支付给助教的过高的工资导致了高昂的大学学费。
华丽的辞藻和优雅的句式也不能掩盖真正观点和论据的缺失(助教明明穷哭了好吗!——编辑)。尽管如此,机器却给了这篇文章打出了完美的分数3。
这些荒唐的结果并不能用个别系统偶尔抽风来糊弄过去,因为能让一个系统跑偏的例子们也会对其他系统造成同样的结果。读过《深度神经网络很好骗》后,人工智能研发公司Vicarious的联合创始人迪利普·乔治(Dileep George)很好奇别的神经网络会作何反应;,他的苹果手机上刚好有个应用程序——Spotter,一个用于识别物体的神经网络,现在已经停止更新了。他把手机对准曾被克鲁的系统识别为海星的波浪线。“手机说它是海星。” 乔治说。
Spotter所看到的,是手机摄像头拍到的照片,它和原始图像在很多方面有所不同:光线条件和角度都有差异,而且还拍到了纸上周围的一些像素,不是原图的一部分。然而神经网络得出了同样的有如外星人一般的解读。“这一点很有趣,”乔治评价,“这说明这种诡异的判断具有高度的稳健性。”
实际上,做出“海星”和“猎豹”论文的研究者们已经确保了他们的愚弄图片在不止一个系统里整蛊成功。谷歌的克里斯蒂安·赛格蒂(Christian Szegedy)和他的同事们写道4:“一个为某一模型生成的样本,通常也会被其他模型错误归类,即使它们有着完全不同的架构。”或者使用的是完全不同的数据集。“这意味着这些神经网络对校车长什么样有着某种共识,”克鲁说,“但它们的共识与人类辨认校车的标准大相径庭。这一点让很多人大吃一惊。”
当然,任何收集和编程数据的系统都可能认错东西。这也包括人类的大脑,它可以将早餐吐司上的图案看成耶稣肖像。但是当你从某个图案中看到了并不存在的东西时——心理学家通常称之为幻想性视错觉(pareidolia),其他人也都能理解为何你会得出这样的错误结论。这是因为我们共享着同一个认知和辨认物体的神经系统。
在完美的世界里,我们的机器也会和我们共享这个系统,我们便能像理解彼此一样理解它们。然而,神经网络产出的那些古怪结果表明,我们并不生活在那样的世界里。巴罗卡斯说,这样的情况会让我们意识到,算法的“思考”过程并非人类思维的复制品: “当系统按照不同于人类的方式运行时,它们的幻想性视错觉也与我们的不同了。”
巴卡罗斯补充道,写下这些算法的人希望“让机器是人化的,希望它们解释事物的方式与人类的思维方式一致。但我们必须做好这样的心理准备——即使机器做和人类一样的事,做法也会和人类截然不同。”
当然,把狗认成鸵鸟的AI对人类并不构成威胁,在许多书面测试中,机器也能正确打分,能够愚弄神经网络的图片似乎也不太容易产生。但一些研究者认为,这样的图片一定会出现的。克鲁觉得把校车当做橄榄球队服这种事情即使只发生了一次,也已经太多了:“如果你恰好坐在这样一辆会把校车认成衣服的自动驾驶汽车上就更是如此。”
目前,我们还无法理解神经网络是如何得出这些令人费解的结论的。计算机科学家们最多只能观察运行中的神经网络,记录下一个输入值会如何触发内在运行单元的回应。这比什么都不知道强,但离对机器内部到底在发生什么的严谨数学解释还差得很远。换句话说,这个问题的难点不仅在于机器同人类的思维方式不同;而且还在于人们无法还原机器思考的过程,从而找到这种不同背后原因。
最新资讯
热门视频
新品评测