导语:科技公司正在悄悄地用人工来代替人工智能
注:本文翻译自 www.theguardian.com,作者Olivia Solon ,原文标题The rise of 'pseudo-AI': how tech firms quietly use humans to do bots' work。
建立起一个全部由人工智能驱动的服务系统是很困难的。事实上,一些创业公司发现,让人类像机器人一样工作比让机器像人类一样工作更容易、成本也更低。
“使用人工完成某些工作可以让公司不用应付大量的技术和业务开发挑战。很明显,这么做不具有规模性,但你确实可以在一开始直接越过很多困难的部分,”ReadMe的首席执行官Gregory Koberger说,他说他遇到了很多“伪人工智能”。
《华尔街日报》(Wall Street Journal)本周发表的一篇文章将此类事件推到了了风口浪尖,文中着重介绍了谷歌对数百名第三方应用程序开发人员访问人们的邮箱大开绿灯。
总部位于圣何塞的Edison Software公司,其人工智能工程师对数百名用户的个人电子邮件信息进行了修改,修改了他们的身份,以改进“智能回复”功能。但并未提及这一行为是否侵犯了用户的隐私权。
《华尔街日报》刊载的文章中还强调,此种针对邮箱信息的行为远非第一次。2008年,将语音邮件转换为短信的Spinvox公司被指控在海外呼叫中心使用人类而不是机器来完成工作。
2016年,《彭博商业周刊》揭露了有些公司雇人每天花12个小时假装聊天机器人或者智能助手,为客户进行日程安排等服务。这是一份令人麻木而疲惫的工作,员工们纷纷表示他们真的期待有机器人顶替自己的位置。
2017年,企业费用管理程序提供商Expensify公司承认,它此前声称的使用“Smart Scan”技术的收据处理工作,至少有一部分是人工完成的。这些收据的扫描结果被发给了亚马逊的Mechanical Turk公司,在这家公司的众包劳动工具上,这些收据其实是由低薪酬雇来的员工们处理并誊写的。
“我想知道,那些使用了Expensify公司Smart Scan产品的用户是否知道它们的数据是由MTurk的员工输入的,”Rochelle LaPlante说,他正是一个Turk公司的一员,“我可以查看某个人的优步收据,上面有他们的全名和接送地址。”
就连在人工智能领域投入巨资的Facebook,也依赖“伪人工智能”的服务。
在某些情况下,人类被用来训练人工智能系统并提高它的准确性。一家名为Scale的公司为一群人类员工提供了自动驾驶汽车和其他人工智能驱动系统的培训数据。例如,人工智能训练人员会查看摄像头或传感器,并标注汽车、行人和骑自行车的人。有了足够的人工校准,人工智能将学会识别这些物体本身。
但在其他情况下,公司会谎称自己已经在使用人工智能了,然后告诉投资者和用户说自己已经开发出了便利的人工智能服务,但私下里却在秘密地依赖真人。
Gregory Koberger(@gkoberger)
如建立一个人工智能创业公司?
首先,雇佣一批廉价劳动力,让他们假装自己是人工智能,然后为客户提供服务;
其次,等着人工智能真的被发明出来。
March 1, 2016
心理学家、Woebot(一种旨在解决人们心理健康问题的聊天机器人)的创始人Alison Darcy将其称为为“奥兹国设计技术的巫师”。
“说实话,很多时候你以为是人工智能,但其实屏幕的那一边是个真实存在的人,而不是什么算法,”她补充说,要想建立起良好的人工智能系统,“大量的数据”不可或缺,而很多时候设计师们在投资之前,会想知道是否有足够的服务需求。
她说,这种方法不适用于像Woebot这样的心理服务。
“作为心理学家,我们受到道德准则的约束。而不欺骗是很明显的道德准则之一。”
研究表明,当人们认为自己是在和机器交谈而不是与人交谈时,他们往往会透露更多信息,因为寻求心理健康帮助会带来一种耻辱感。
来自南加利福尼亚大学(University of Southern California)的一个研究小组通过一个名为Ellie的虚拟治疗师测试了这个结果。他们发现,当退伍军人知道Ellie是人工智能系统时,他们更容易打开心扉,说出自己的症状。
另一些人则认为,公司应该对其服务的运作方式始终保持透明。
一家用人工假装人工智能提供服务的公司的员工LaPlante说:“我不喜欢这样,对我来说,这是不诚实的。而且就工作方面讲,我们感觉自己被雪藏了起来。自己的价值并没有得到重视。我不喜欢我的劳动被这种对客户满口谎言的公司利用。”
其实,在人工智能自己是人类并提供服务的时候,同样引发了这种道德上的困惑。最典型的例子莫过于例子是谷歌的这是一个机器人助手Duplex,它可以用“嗯”和“呃”等词句来完成极其逼真的对话和预约。
经历了强烈反对之后,谷歌表示自己的人工智能助手会向交谈过的人类表明自己的真实身份。
Darcy说:“在这种低影响的对话中,你可能会觉得这么点儿小花招无伤大雅。”
但是,如果这种瞒天过海的技术被一些别有用心的人用来做一些违法乱纪的事情呢?
Darcy说:“考虑到人工智能已经让人产生了很大的恐惧,在缺乏透明度的情况下,它更不能真正帮助人们进行对话了。”