2017 年08 月31日

为什么只靠机器学习无法保证安全

特殊项目 科技

联网技术在我们生活中应用的范围越来越广泛。我们甚至都不会注意到下面这些事有多么自然:向Siri或Alexa提问或者在Google上查询关于人类经验的更多说明,希望汽车能对公路交通规则做出快速响应,以保护我们行驶安全。虽然有些人仍然认为这些技术很烦人,比如用于将图像传输到面部识别软件的公共摄像机,但很多人并不这样认为。

从这点上来说,很多人工智能失败很容易遭人嘲笑,因为总得来说大部分人工智能都比较滑稽(把导致致命后果的可能性抛之脑后)。但我们认为随着机器的进步,随着恶意软件的不断进化,这一切都会发生改变。下面我们就来看看其中一些很有意思的人工智能败笔。

娃娃屋之害

一个典型的案例:今年早些时候,加州播放的一个新闻节目引发了连锁订购反应。实际上这是基于一起错误人工智能事件而引发的另一起错误人工智能事件。情况是这样的:节目报道了关于亚马逊家居助理Echo误订娃娃屋的新闻,结果这则新闻却触发了新一轮的Echo(和往常一样,他会仔细聆听一切指令,而不区分是主人的声音还是其他人的声音)误订娃娃屋。所以你或许不应该在家里播放这个视频剪辑。

阅读关于亚马逊家居助理Echo和娃娃屋的更多内容。

快餐广告

汉堡王试着利用了同样的漏洞,但它是通过广告来吸引观众用声音激活助理。在某种程度上,他们成功了。真正的问题是无法预测人类的行为:这家快餐业巨头利用广告激活Google Home家居助理在合作网站维基百科上搜索招牌食品”皇堡”,这几乎保证了用户都会听到”皇堡”的广告。瞧瞧他们怎么干的

Cortana的困惑

我们没法单独调出微软的语音助手 – 苹果公司的Siri有其失策的地方,而Google的助手则出现了大量可笑的错误 – 但是当这些新功能在人前失败时,总是很有趣。这个类似Cortana,但听不懂非美式口音 – 也许快速的、自然的说活会让机器大吃一惊。

骗过面部识别

不管你戴怎样千奇百怪的眼镜,你的朋友都能认出你,但对于机器来说却不是这么回事。卡内基梅隆大学的研究团队证明,你的外形只要改变很小一部分,在机器眼中你就是完全不同的一个人。最好的一点是:研究人员不仅能设法躲过面部识别,还能通过在眼镜框上印某些图案来模拟特定人物。

《卫报》对此进行了更详细地报道。

原论文

路标识别出错

自助驾驶汽车的路标识别功能呢?是否要比面部识别能力更强?也不见得。另一组研究人员证明,路标识别功能也很容易出错。对于不会影响任何人判断的小变化,都可能会影响到机器学习系统,它会把”停止”标志分类为”限速45公里”。这可不仅仅是随机错误;在测试条件下,它的发生率是100%。

更多有关路标识别失败的内容。

相关论文。

隐形熊猫

在输入中要做多大的改变才能骗过机器学习?你会惊奇地发现,实际只需要非常小的变化。对于人眼来说,下面两张照片根本没有什么区别,但机器根据置信度判断,这两张图中的是完全不同的对象 – 一个是熊猫,另一个是长臂猿(真让人好奇,在原始图片中添加一点噪音就会被机器识别为线虫类)。

相关的更详细的文章

当然还有论文

可怕的Tay

微软的聊天机器人实验推出的人工智能机器人名叫Tay.ai,被设定为是一个十几岁的女孩,并从社交媒体互动中进行学习。事实证明,我们人类是罪魁祸首,所以Tay很快被教成了纳粹分子。人工智能机器人可以成长,但其成长的质量和特性取决于人类的投入。

阅读更多关于Tay及其不良学习经历。

迄今为止最致命的失败,或许也是最著名失败当属特斯拉(Tesla)- 但我们不能责怪人工智能,尽管它被命名为”自动驾驶仪”,但实际上并不能完全接管驾驶操作。据调查发现,坐在驾驶位上的司机无法像真正司机一样进行操控,无法忽略手不在方向盘上的警告,无法将巡航控制设置在限速以上,也无法在要撞上他的卡车进入视野后7秒或更长时间内采取避让措施。

使用自动驾驶仪有可能避免事故 – 已经采用了卡车的位置和颜色对比度等因素 – 但目前,我们真正知道的是这些都不能超出其工作参数范围,我们还不能指望软件来这样做。

最终,就算使用机器学习,软件通过累积经验而变得更智能,人工智能也不可能接近人类的智慧。但机器胜在具有速度快、一致性高、不会疲劳的优点,与人类的直觉和智慧相配合能发挥很大的作用。

这就是为什么我们称之为人机智能(HuMachine)的方法会利用两个领域中最优秀的部分:利用超快、细致的人工智能进行高级编程,利用一流的人类网络安全专家对其进行扩增,专家能把训练有素的眼睛和人类的大脑转向防御恶意软件,保护消费者、企业和基础设施系统安全运行。