你以为是人工智能,其实是只能人工
姓名:李佳明 学号:16020199014 转载自:http://www.gdu-tech.com
【嵌牛导读】:科技与道德
【嵌牛鼻子】:人工智能骗局
【嵌牛提问】:当科技发展之时,我们应该做些什么?
【嵌牛正文】:
(EON/编译)还记得前段时间谷歌演示的智能助手Duplex吗?它能模仿人类打预约电话,甚至还会发出人类惯用的语气词,接电话的店员甚至没有意识到,电话的另一端根本就不是真人。
然而,你可能没注意到的是,当开发者们共同致力于让AI变得更像人时,有些创业公司却打起来了另外的算盘:让人冒充AI。
谷歌CEO介绍Duplex。图片来源:Google
对于这些公司来说,这一招既可以省下大量的研发费用,还可以忽悠到投资。正如ReadMe公司的CEO格雷戈里·科贝格(Gregory Koberger)所说的那样,“把活儿交给真人,能让你跳过大量技术和业务发展方面的挑战。”
他在推特上吐槽道:“如何建立一家AI创业公司?1.雇佣大量廉价劳动力假扮成假扮人类的AI。2.等着AI被发明出来。”
这种做法已经是业界周知的秘密了,但是大部分消费者还蒙在鼓里。
创业第一步——假装有AI
前不久,据《华尔街日报》报道,谷歌允许大量第三方应用的开发者读取Gmail用户的邮件。在被曝光的第三方公司中,圣何塞的艾迪森软件公司(Edison Software)就在用假的AI。他们的AI工程师会浏览用户的个人邮件,来改善所谓的“智能回复”功能。不过,他们的隐私政策并未提及人类会看到用户的邮件。
其实,早在2008年,就有一家名为Spinvox的公司作假了。他们号称能将语音留言转化为文字,结果被指控这些工作都是海外电话中心的人工来完成的。
2016年,据彭博社报道,在X .ai和Clara这样的日程应用公司,人类员工每天都要花12小时假扮AI聊天机器人。这项工作太令人头脑发麻了,以至于员工们说他们期待机器人能真正取代人类。
2017年,业务支出管理应用Expensify承认,他们通过人工转写收据,而不像对外声称的那样用“智能扫描技术”。扫描过的收据会被发布到亚马逊的劳力众包平台Mechanical Turk上,然后接受低薪的人来阅读和转写这些收据。
人工并不便宜
在某些情况下,人类被用于训练AI系统,来提升AI的精确度。例如,名叫Scale的公司用大量的人类工作者,向自动驾驶系统和其他AI系统提供训练数据。此外,谷歌的Duplex也用到了人类训练者。
M聊天界面。图片来源:Facebook
Facebook曾在2015年推出虚拟助手M的测试版。M能预约和提供礼物建议等,只不过,它也是由人工协助的。当时我们用不到它,因为它只对旧金山湾区的1万人开放,而现在,Facebook彻底关闭了这一项目。虽然我们用不上它了,Facebook表示M的特性将会保留在聊天应用Messenger里。
这种人工协助AI的出发点其实是好的,AI系统会在人类的协助下学会应答各种指令,最终变得更加智能。然而,它的代价还是有点大。
首先,Facebook需要大量昂贵的劳动力,因此将服务扩大不太可行。其次,当M完成一项任务时,用户总是会提出更难完成的要求。就这样,M要达到的自动化程度远远超过了当前的机器学习技术。
AI技术应该更加透明
聊天机器人Woebot的创始人、心理学家艾莉森·达西(Alison Darcy)表示,这种方法并不适用于心理支持方面的服务,例如Woebot。
“作为心理学家,我们有伦理准则作为指导。其中,不去欺骗人们就是非常明确的一项。”
Woebot能够向用户提供精神健康方面的支持。图片来源:Woebot
研究表明,当人们认为自己在和机器而非人类交谈时,他们更愿意袒露心声,这是因为精神卫生方面的求助常常和污名化联系起来。南加州大学的研究团队用虚拟心理咨询师Ellie测试了这一研究。他们发现,当患有PTSD的退伍军人知道Ellie是AI,而不是人类操作的机器时,他们更有可能坦诚讲述自己的症状。
另外一些人认为,公司们应该一直公开自己的服务是如何运行的。
“我不喜欢人们假装成AI。”罗谢尔·拉普兰(Rochelle LaPlante)说,他为很多提供假AI服务的公司工作过。
“对于我来说,这不太诚实,而且有欺骗的意味。我希望自己正在使用的东西不是这样的。而从工作者的角度来看,这就像是我们被推到了幕后。我不希望我提供劳动的公司转变态度,而且向客户隐瞒真相。”
这样的道德困境也出现在试图让AI更像人类的项目中,例如谷歌的Duplex。该项目在最初演示的时候,AI 并没有向打电话的对象表明身份。Duplex立刻引发了争议,人们担心这种略带欺骗性的技术会被有心之人利用。
“人们对AI已经有很多主要的担忧了,而缺乏透明并不能帮助我们解决问题。”达西说。(编辑:Ent)
作者:Olivia Solon
链接:https://www.guokr.com/article/443086/
来源:果壳
本文版权属于果壳网(guokr.com),禁止转载。如有需要,请联系sns@guokr.com