51

是“人工智能”还是“人工智障”?2017年10大人工智能失败案例回顾

 6 years ago
source link: https://mp.weixin.qq.com/s?__biz=MzI4NjYwMjcxOQ%3D%3D&mid=2247484183&idx=1&sn=08ae4fd16f950743d66189e9c871cdca&chksm=ebdb27a7dcacaeb115513b3b80847f43c50b06d61b300b9c3b7d0ed945247cd46f7d350cdc5b%23rd
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

是“人工智能”还是“人工智障”?2017年10大人工智能失败案例回顾

Original Hanson 网路冷眼 2017-12-25 15:06 Posted on

Image

现在尽管我们大多人自然是机器智能的粉丝,但是我们也必须意识到一些新技术正在努力地有效地执行他们的任务,经常以人类不会犯错的方式出错。

今年,人工智能项目AlphaGo和Libratus分别在围棋和扑克上完胜世界上最好的人类玩家。尽管这些里程碑显示了近几年人工智能取得的巨大进步,但许多人对新兴技术的整体成熟度持怀疑态度,尤其对过去12个月中出现的一些人工智能的失败产生失望。

现在尽管我们大多人自然是机器智能的粉丝,但是我们也必须意识到一些新技术正在努力地有效地执行他们的任务,经常以人类不会犯错的方式出错。本文梳理了2017年度10个值得注意的人工智能失败的案例。

1、面具破解苹果公司的Face ID

Face ID是解锁新型iPhoneX的面部识别技术,被誉为迄今为止最安全的人工智能激活方法,苹果公司宣称被骗的几率为百万分之一。但随后越南公司BKAV使用由3D打印的塑料、硅胶、化妆品和镂空构成的价值150美元的面膜对其破解。 Bkav只是扫描一个测试对象的脸部,使用3D打印机生成一个脸部模型,并贴上剪纸眼睛和嘴巴和硅胶鼻子。这一破解事件给整个行业掀起了巨大的冲击,加大了消费者设备隐私的风险,更普遍的是人工智能设备的安全风险。

2、Amazon Echo 引得邻里报警

流行的Amazon Echo被认为是很强大的智能音响之一。但没有什么是完美的。一名德国男子的Echo在其不在家的时候被意外激活,并在午夜后开始响起音乐,吵醒了邻居。他们打电话报警,警察不得不打破前门,关闭了违规的音响。因为警察们还换了门锁,所以当这个人回来时,他发现他的钥匙不再工作。

3、Facebook 聊天机器人惨遭关闭

今年七月,广泛报道说两个Facebook聊天机器人以无法识别的语言相互沟通后被关闭。关于新的秘密超级智能语言的谣言一直在许多讨论区传播泛滥,直到Facebook后来澄清这种神秘的交流只是语法编码疏忽的结果方才作罢。

4、拉斯维加斯智能巴士首日开挂

一辆自动驾驶巴士在今年十一月在拉斯维加斯首次亮相,当时名流中的常驻魔术师佩恩 - 泰勒(Penn&Teller)也排队等候。然而在短短的两个小时内,这辆巴士就被一辆货车撞上了。尽管从技术上来说,这起事故并不是巴士的负责,而警方传讯了送货卡车司机,但是在这辆智能巴士上的乘客抱怨道,当卡车慢慢靠近的时,它不够智能而无法摆脱危险。

5、Google Allo使用头巾表情符号来回应枪支表情

美国有线电视新闻网(CNN)的工作人员通过Google Allo收到了一个戴头巾的人像的表情建议。原来这是由于包含手枪的表情符号引发的。尴尬的Google只得向公众保证,它已经解决了这个问题,并发表道歉。

6、双胞胎骗过汇丰语音ID的技术

汇丰银行(HSBC)的语音识别ID是一个以人工智能驱动的安全系统,允许用户通过语音命令访问他们的账户。尽管该公司声称它和指纹ID一样安全,但英国广播公司(BBC)的一名记者的双胞胎兄弟却能够通过模仿他的声音访问记者的账户。实验尝试了七次便得手。汇丰临时的解决办法就是确定账户锁定的阈值为三次失败尝试。

Google AI将步枪误判为直升机

通过微调步枪照片,麻省理工学院(MIT)的一个研究小组欺骗了Google Cloud Vision API,将其辨识为为直升机。这个技巧,即不良样本,会导致计算机通过引入人眼无法察觉的修改来对图像进行错误分类。过去,如果黑客知道目标计算机系统的基本机制,那么对抗的例子才会起作用。而麻省理工学院团队在没有获得这些系统信息的情况下,通过触发错误分类而向前迈进了一步。

路牌黑客技巧愚弄了自动驾驶汽车

研究人员发现,通过使用油漆或胶带小心制作交通停止标志,他们可以欺骗自动驾驶汽车对这些标志进行误分类。用“爱”和“憎恨”这两个词修饰的停车标志,欺骗了一辆自驾车的机器学习系统,在100%的测试用例中将其误认为是“限速45”的标志。

AI想象“Bank Butt”颜色的日落景色

机器学习研究人员Janelle Shan训练了一个神经网络,以产生新的油画颜色并对每种可以“匹配”颜色的名。尽管颜色可能赏心悦目,但名字却滑稽可笑。即使在用颜色名称数据进行少量训练之后,该模型仍然将天蓝色标记为“Gray Pubic”,将深绿色标记为“Stoomy Brown”。

向虚拟助手Alexa提问,可得小心谨慎

亚马逊Alexa的虚拟助理可以使网上购物更容易。也许是太容易了吧? 1月份,圣地亚哥新闻频道CW6报道说,一个六岁的女孩通过简单地向Alexa购买一个170美元的玩具屋。故事还没有结束。当播出的电视主持人重复了这个女孩的话,说:“我喜欢这个小女孩说,'Alexa请给我订个玩具屋',”结果一些收看节目的观众家里的Alexa设备再次触发订购玩偶屋。

参考文章:https://syncedreview.com/2017/12/23/2017-in-review-10-ai-failures/


在微信里长按二维码可以关注公众号“网路冷眼”,喜欢就分享一下

Image

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK