一场新冠肺炎疫情,让远程逐渐成为常态。钉钉、飞书、企业微信、zoom等视频会议类,很好地解决了远程沟通问题。除了视频会议软件,另一种云监工软件也火了,这种软件可以盯着你干活,看你是否“摸鱼”,并给你打分。这款ai监工软件名叫enaible,据悉,全员在家办公期间,enaible销售尤其火爆,前来咨询的公司数量是以前的4倍。但也有批评声音表示,这款软件会让员工失去创造力和对于公司的忠诚度。
收集操作痕迹 可给工作效率评分
ai监工有何神通能监督员工们的工作,还能为员工打分?据介绍,enaible软件装在员工的电脑里,并可以在后台一直运行,收集员工工作中的细节数据后提供给公司。软件使用了一个名为trigger-task-time的算法,算法会根据邮件或者电话,来判断员工要完成什么任务以及计算这些任务花了多长时间来完成,随后算法会根据这些数据给员工的工作效率打分。
“我们使用的操作系统,都会以日志的形式对应用软件的操作流程进行记录。打开哪个文档、内容是什么、上网浏览哪些网页都会留下使用痕迹。在里面装一个监控软件,赋予它操作系统里的很多权限,ai监工就能把办公中操作电脑所留下的各种数据收集起来,进行融合处理,形成计算机可理解的表达。”天津大学智能与计算学部教授韩亚洪解释,因为ai监工记录下来的数据会有图片、文字、视频、音频以及各种符号数据,因此会用到、、、数据挖掘、多模态数据融合等ai领域的最新技术。
“ai监工最核心的部分不只是收集数据,其最大难度在于通过算法模型,对这些数据进行分析,从而做出正确的决策,也就是对员工的工作效率等进行打分。”韩亚洪解释,这个算法模型的形成需要进行,具体说是监督学习。监督学习光有大量的数据是远远不够的,必须要有很多专业领域知识的积累,这样才能为数据本身和最后的正确决策建立起一个关联,形成有监督的信息,也就是一条条有效的训练数据。
“什么是有效的训练数据?比如训练机器识别动物,我们会找很多猫、狗的照片,不同品种、不同形态,但是我们都必须为这些图片标注上猫或者狗的名称,这个标注就是正确决策,图片和对应的标签共同形成了一条有效的训练数据。通过对大量有效数据的学习,机器就可以建立起一个算法模型,对图片进行识别。”韩亚洪举例说。
“生成trigger-task-time的算法模型,领域内的专家知识和领域内的数据缺一不可。训练这样一个模型,需要有很多领域内的相关知识积累和储备才能做到,并找到有效的知识融合方法。”韩亚洪分析,这才是成就ai监工的核心关键。
据enaible官网介绍,这家公司的创始人拥有20年的“ceo教练”经验。也正是有这样的职业背景,让ai监工软件除了评判员工外,还有一个领导力推荐算法可以给老板们提供建议 ,自动找出员工工作中的问题、提高效率。
隐私无所遁形 ai被吐槽不近人情
ai监工从诞生之初就伴随着争议,在不少员工眼里,ai监工软件正扮演着“饭碗杀手”的角色,而且是不近人情的。
员工们吐槽最多的就是“不被信任”“每分每秒被监控,感到很可怕”……2019年4月末,亚马逊就用数字监控器追踪发货仓库里拣货工人们的工作速度,并管理和限制员工离开岗位的时间,然后自动生成解雇的指令。员工则被这种“看不见、却无处不在”的“皮鞭”驱赶得疲于奔命,连喝水上都不敢随便去,更别提各种隐私无所遁形。
“ai监工的存在引发了一个始终伴随着发展的重要问题,那就是人工智能伦理问题。伦理是有界限的,超过一定的界限可能就涉及到法律问题了。”韩亚洪举例说,比如上路把人撞死了,这个法律责任该由谁担负呢?这就是人工智能伦理问题。对于装在电脑里的ai监工,虽然员工在办公,但电脑毕竟是私人的,监控员工就有可能会涉及到个人的隐私数据。因此ai监工的存在,首先要解决好人工智能伦理的问题。
还有很多员工质疑“ai监工的决策是否能衡量员工的生产力”“评判的结果是否准确”……韩亚洪表示,这类软件肯定会考虑到大多数办公业务的情况,因此决策的结果大部分是准确的。但特殊情况肯定也是存在的,当机器遇到的是它从来没碰到过的特殊情况时,算法可能也会给出不准确的评判。因为这种监督员工工作效率的工作,即使由人来做,也有不准确的时候。
解决伦理问题 ai监工或迎长远发展
面对各种吐槽,enaible公司也感到非常委屈,根据他们的统计,8小时工作制里,其实人们有产出的只有3个小时,每年有4000亿美元被员工们的低效率损失掉。管理者本来就是要盯着员工干活,判断他工作中的问题,这个过程换成ai也一样。企业反正都要裁员,那不如精准地找出工作效率最低的人。
“enaible公司的说法也有一定的道理,但是未来要全面使用ai监工,首先需要厘清人工智能伦理与人工智能应用的关系。”韩亚洪提出自己的看法,只有捋顺ai伦理问题,才能决定ai监工是否能继续使用。而让员工和老板都认可,ai监工才有可能发展下去。
“在技术层面,增加交互功能,对于完善机器算法模型将有很大的帮助。”韩亚洪解释,当ai监工部署到一个公司时,可能开始的时候,它的性能没有那么好。而如果ai监工的模型能设计成可交互的形式,并且在交互中能够进化,它的能力就会在学习中再提升。就像我们上面提到的,如果遇到模型算法没有遇到过的数据,就有可能出现决策错误。如果这时候,通过交互告诉机器正确的决策,那么下次再遇到同类问题,机器的算法模型就会举一反三,给出正确的决策了。
“而且现实世界里,员工的工作状态必然受其所处的社会、家庭和生活环境的影响,所以对员工的监督和管理也不可能只用与工作有关的冰冷冷的数据。”韩亚洪表示,如果ai监工能变得更人性化一些,也就是算法模型设计得更个性化一些,比如通过捕捉员工的表情、动作等方面的变化,并通过的蛛丝马迹去发现员工状态、情绪、身体等方面的异常和变化,并且把这些数据也融入到模型算法的决策中去,这样ai监工最终的决策也许会让人觉得更有人情味。
正如《麻省理工科技评论》援引律师科瑞的话,良好的工作环境,应该让员工觉得自己的工作备受信任,而单纯的监控是无法做到这一点的。
(责任编辑:解)