用人工智能监督人工 遭遇非技术困局(2)
作者:time 来源:科技日报 时间:2020-07-23 阅读:
本文摘要:隐私无所遁形 AI被吐槽不近人情 AI监工从诞生之初就伴随着争议,在不少员工眼里,AI监工软件正扮演着“饭碗杀手”的角色,而且是不近人情的。 员工们吐槽最多的就是“不被信任”“每分每秒被监控,感到很可怕”……

  隐私无所遁形 AI被吐槽不近人情

  AI监工从诞生之初就伴随着争议,在不少员工眼里,AI监工软件正扮演着“饭碗杀手”的角色,而且是不近人情的。

  员工们吐槽最多的就是“不被信任”“每分每秒被监控,感到很可怕”……2019年4月末,亚马逊就用数字监控器追踪发货仓库里拣货工人们的工作速度,并管理和限制员工离开岗位的时间,然后自动生成解雇的指令。员工则被这种“看不见、却无处不在”的“电子皮鞭”驱赶得疲于奔命,连喝水上厕所都不敢随便去,更别提各种隐私无所遁形。

  “AI监工的存在引发了一个始终伴随着人工智能发展的重要问题,那就是人工智能伦理问题。伦理是有界限的,超过一定的界限可能就涉及到法律问题了。”韩亚洪举例说,比如无人驾驶汽车上路把人撞死了,这个法律责任该由谁担负呢?这就是人工智能伦理问题。对于装在电脑里的AI监工,虽然员工在办公,但电脑毕竟是私人的,监控员工就有可能会涉及到个人的隐私数据。因此AI监工的存在,首先要解决好人工智能伦理的问题。

  还有很多员工质疑“AI监工的决策是否能衡量员工的生产力”“评判的结果是否准确”……韩亚洪表示,这类软件肯定会考虑到大多数办公业务的情况,因此决策的结果大部分是准确的。但特殊情况肯定也是存在的,当机器遇到的是它从来没碰到过的特殊情况时,算法可能也会给出不准确的评判。因为这种监督员工工作效率的工作,即使由人来做,也有不准确的时候。

  解决伦理问题 AI监工或迎长远发展

  面对各种吐槽,Enaible公司也感到非常委屈,根据他们的统计,8小时工作制里,其实人们有产出的只有3个小时,美国每年有4000亿美元被员工们的低效率损失掉。管理者本来就是要盯着员工干活,判断他工作中的问题,这个过程换成AI也一样。企业反正都要裁员,那不如精准地找出工作效率最低的人。

  “Enaible公司的说法也有一定的道理,但是未来要全面使用AI监工,首先需要厘清人工智能伦理与人工智能应用的关系。”韩亚洪提出自己的看法,只有捋顺AI伦理问题,才能决定AI监工是否能继续使用。而让员工和老板都认可,AI监工才有可能发展下去。

  “在技术层面,增加交互功能,对于完善机器算法模型将有很大的帮助。”韩亚洪解释,当AI监工部署到一个公司时,可能开始的时候,它的性能没有那么好。而如果AI监工的模型能设计成可交互的形式,并且在交互中能够进化,它的能力就会在学习中再提升。就像我们上面提到的,如果遇到模型算法没有遇到过的数据,就有可能出现决策错误。如果这时候,通过交互告诉机器正确的决策,那么下次再遇到同类问题,机器的算法模型就会举一反三,给出正确的决策了。