不是那么(人工)智能:8 次机器学习都错了

数十亿美元已投入人工智能 (AI) 研究,该技术的支持者认为计算机可以帮助解决世界上一些最紧迫的问题,包括医学、商业、自动交通、教育等领域的问题。

但人工智能以数据集为基础,只能与产生它的人类一样聪明。 虽然一些科学家认为计算机继续成为比人类更好的决策者只是时间问题,但它们目前的错误是显而易见的。

[Keep up with the latest in privacy and security. Sign up for the ExpressVPN blog newsletter.]

让我们来看看八次人工智能并不像技术爱好者所希望的那样聪明。

微软的种族主义聊天机器人

2016 年,微软推出了 Tay,这是一款 Twitter 机器人被描述为能够“对话理解”。

Tay 结合了公开可用的数据和编辑人员的输入来回应网上的人,讲笑话和故事,并制作模因。 这个想法是让它随着时间的推移变得更聪明,学习和改进,因为它与互联网上的更多人交谈。

然而,在几个小时内,Tay 从可爱的病毒式网络轰动变成了卑鄙、极端的网络巨魔。

“Tay”在不到 24 小时内从“人类超级酷”变成了完全纳粹,我一点也不担心 AI 的未来 pic.twitter.com/xuGi1u9S1A

—格里(@geraldmellor) 2016 年 3 月 24 日

微软不得不在仅仅 16 小时后让 Tay 下线,但在她发布诸如“希特勒是对的”和“9/11 是内部工作”之类的推文之前,她不得不下线。 公平地说,她的新知识完全是通过在社交媒体上与其他用户的互动获得的,这可能不是学习怎样获取情报的最佳方式。

在一个 陈述 在让 Tay 下线后不久,微软表示:“人工智能聊天机器人 Tay 是一个机器学习项目,专为人类参与而设计。 随着它的学习,它的一些反应是不恰当的,并且表明了一些人与之互动的类型。 我们正在对 Tay 进行一些调整。”

想要消灭人类的机器人索菲亚

索菲亚由香港公司 Hanson Robotics 开发的社交类人机器人,被吹捧为“用于尖端机器人技术和人工智能研究的框架,特别是用于理解人机交互及其潜在的服务和娱乐应用。”

她于 2016 年首次公开亮相,并迅速晋升为超级巨星,成为联合国“创新冠军”,与吉米·法伦一起出现在今夜秀上,并在《纽约时报》、《卫报》和《华尔街》等刊物上亮相杂志。

索菲亚被授予 2017年的沙特阿拉伯公民身份,提出了一个问题,即她是否也需要在公共场合遮住头并在国际旅行之前征得男性监护人的批准。

然而,在索菲亚友好的外表下,隐藏着更黑暗的一面。 在流行的技术会议 SXSW 的公开问答中,索菲亚接受了她的创始人大卫汉森的提问。 在讨论机器人的许多积极属性的会议中,汉森漫不经心地问她是否会摧毁人类——希望得到否定的回应。

“好吧,”索菲亚一眨不眨地说,“我要毁灭人类,”在气喘吁吁的观众面前。

具有讽刺意味的是,在汉森评测人工智能最终将怎样发展到“他们将真正成为我们的朋友”之后,这个问题就出现了。

优步的自动驾驶汽车撞死了一名行人

自动驾驶汽车是 优步未来的关键. 这家拼车公司相信,这项技术最终可以降低交通成本并推动优步实现盈利。 创始人特拉维斯·卡兰尼克(Travis Kalanick)称自动驾驶汽车技术对公司的生存“至关重要”,允许其 自治部门每月烧掉 2000 万美元 希望完善它。

但优步要想以一种满足监管机构和最终用户的方式完善技术,还有很长的路要走。 在 2018 年的一起悲惨事故中,一辆以每小时约 40 英里的速度行驶的自动驾驶优步汽车在亚利桑那州撞死了行人 Elaine Herzberg。

这辆车是一辆沃尔沃 SUV,处于自动驾驶模式,但驾驶座上坐着一个人。 事故发生在车辆将 Herzberg(他在推自行车时乱穿马路)分类后首先作为物体,然后作为车辆,然后作为自行车。

自动紧急制动功能被禁用。 安全司机本可以干预,但她的眼睛并没有在路上,因为她正忙于播放电视节目。

LG 的 CLOi 将高管推下车

韩国企业集团 LG 生产从可穿戴设备到手机和智能电视的所有产品,2019 年销售额超过 500 亿美元。

在全球最大的技术展览会之一的 CES 2018 上,LG 的演示集中在其智能机器人 CLOi 将怎样成为未来智能家居的核心,帮助促进联网冰箱、洗衣机和其他电器的发展。

CLOi 在 LG 副总裁 David VanderWaal 的舞台演示开始时进行了积极的互动,询问这位美国高管怎样提供帮助并提醒他他的日程安排。 但它很快就从那里向南移动,机器人以死一般的沉默回答无关紧要的问题。

这位垂头丧气的高管试图淡化这种情况,并评测说即使是“机器人也有糟糕的日子”,但故障出现的时机再糟糕不过了——在全球观众面前,有数十名媒体出席。

不出所料,从那以后我们就很少听到关于 CLOi 的消息了。

相互争斗的维基百科机器人

我们知道人类喜欢在网上互相攻击,而且机器人似乎也采用了我们的一些特征。

一种 牛津大学研究人员的研究 发现,与普遍认为机器人相对可预测并按照科学原理运行的看法相反,它们经常相互冲突。

该研究针对 Wikipedia 机器人进行了磨练,因为它们的工作很重要——在线百科全书上超过 15% 的编辑是由机器人处理的——以及它们易于识别的事实,因为只有经过批准的帐户才能启动他们。

维基百科机器人能够检查拼写、识别和撤销破坏行为、执行侵犯版权、挖掘数据、导入内容、编辑等。 该研究的重点是编辑机器人,这些机器人被授予在未经人类版主批准的情况下直接编辑文章的特权。

为了衡量机器人之间的冲突,研究人员研究了回复:当一个编辑,无论是人类还是机器人,通过恢复文章的早期版本来撤销另一个编辑的贡献。

这项研究的发现很有启发意义:在十年的时间里,英语维基百科上的机器人平均回复另一个机器人 105 次,而人类编辑者则为 3 次。 葡萄牙语 Wikipedia 上的机器人战斗力最强,每个机器人平均有 185 次 bot-bot 还原。

“两个机器人之间的冲突可能会持续很长时间,有时甚至会持续数年,”研究人员指出,并肯定机器人实际上比人类更小(我的见解)。

也许人工智能终究不会杀死我们; 它会忙于内讧。

亚马逊的性别歧视人工智能招聘算法

科技行业在多样性方面存在巨大问题,女性和少数族裔的代表性严重不足,亚马逊的人工智能招聘机器似乎不想改变现状。

由公司的机器学习专家构建,自 2014 年以来用于筛选申请人, 亚马逊的招聘算法 2018 年,该公司发现它已经发展出雇佣男性的偏好后,不得不放弃。

据路透社报道,人工智能“会惩罚包含‘女性’一词的简历,例如‘女性国际象棋俱乐部队长’。 它还降低了两所女子学院的毕业生等级。”

亚马逊试图通过编辑程序以使其对性别保持中立来纠正这种情况。 然而,它得出的结论是,该算法可能会设计其他区分方法来对候选者进行排序。

该项目最终被取消。

逃跑的俄罗斯机器人

机器人逃离他们的巢穴可能是终结者的天网成为现实的第一个警告信号,俄罗斯很早就尝到了它的样子。

2016年,一款名为Promobot的俄罗斯机器人 逃离了它的实验室 在一位工程师忘记关门之后。 它设法到达附近的街道,行驶了近 150 英尺,然后电池电量耗尽并停了下来。 总共免费使用了大约 40 分钟。

Promobot 的创建者试图重写它的代码,使其更加奴性。 机器人没有达到预期的效果 试图再次挣脱.

“我们已经两次改变了人工智能系统,”机器人的创造者之一奥列格·基沃库尔采夫说。 “所以现在我认为我们可能不得不拆除它。”

IBM的沃森,糟糕的医疗建议分配器

IBM 已向 Watson 投入了数十亿美元,它的机器学习系统被吹捧为商业、医疗保健、交通等领域的良药。

2013 年,IBM 宣布 它曾与 德克萨斯大学 MD 安德森癌症中心开发了一种新的肿瘤专家顾问系统,旨在治愈癌症。

然而,该系统远未达到预期。 在一个案例中,计算机建议给癌症患者服用会导致病情恶化的药物。 一位医生说:“这个产品是一个 s-”, 根据一份报告 由边缘。

部分问题在于输入超级计算机的数据集类型。 该理论是为 Watson 提供大量的实际患者数据,帮助它更多地了解这种疾病,希望它最终会开始产生新的见解。

但在向 Watson 提供真实世界数据方面存在障碍,研究人员最终开始改为向其提供假设信息。 显然,这并没有提供 IBM 想要的结果。