卢向华:当AI成为企业“新员工”,“搞砸”工作谁负责?

当碳基与硅基两种智慧碰撞,如何摸索出新的协作模式以提升整体效率?如果人机协同的工作任务“搞砸”了,人类和AI之间如何界定责任?

 

稿件来源:复旦大学管理学院

 

数字经济时代,“人”的角色正在发生新的变化。当AI成为了企业的“新员工”,人与AI的协同合作将逐渐成为生产过程中的常态。当碳基与硅基两种智慧碰撞,如何摸索出新的协作模式以提升整体效率?如果人机协同的工作任务“搞砸”了,人类和AI之间如何界定责任?

与AI一起工作,需要最优匹配模式

如果要让人机协作的系统变得更好,组织管理上可以做什么?这一领域的研究尚处于初步阶段,因为大多数企业仍在探索中,成熟的研究较少。

就目前我们所了解的情况而言,人机协同中的组织管理可以归纳为三个主要方面:一是企业任务与人机系统的匹配管理;二是AI员工融入组织后,组织管理方式的调整;三是人和AI在系统中的责任管理。

首先,需要考虑的是工作任务与人机合作模式之间的匹配管理。

用户的异质性会影响人机协作效果,不同任务的性质也会要求不同的人机协作模式。因此,组织需要根据任务的属性来调整人和AI在具体任务中的比重。目前,大家普遍认可的任务匹配管理模式主要有可计算性、主观性及复杂性三个维度。

第一,可计算性维度。如果任务本身需要大量的计算,超出了人脑的处理能力,那么让AI来主导可能会更有效。举例来说,规划从地点A到地点B的路线时,尽管人类可能有经验,但只能从几条已知路径中选择最优路线,而AI可以枚举所有可能路径,从中找出最优解,因此效果更佳。

第二,主观性维度。如果任务具有较强的主观性或需要灵活应变,如医疗服务或餐饮服务,人类可能更适合扮演主导角色。

第三,复杂性维度。复杂的决策场景需要考虑更多因素,关系也更加复杂。例如,在外卖快递调度系统或空间模拟计算等复杂任务中,人类很容易忽视相关因素,从而影响决策质量,这时增加AI的比重可能会更有利。

举例来说,最近的一项研究中发现,对于创意评价这类任务,由于其相对模糊和主观性强,即使使用了具有理论支持的可解释性人工智能,也无法模仿人类专家的判断,特别是在筛选出特别优秀的创意方面。因此,像这样的任务更需要由人类来主导。

然而,如果所有的创意评价都由人类专家来完成,可能会导致案例过多,使专家感到枯燥和疲倦,从而影响他们的客观判断能力。因此,在这项研究中提出了一个解决方案:针对那些低质量的创意,可以先让AI进行筛除,减少专家的工作负担和乏味感。这样,专家就可以将更多精力集中在评估和筛选优秀创意上。

我们学院的一位年轻老师也进行过一个相关的有趣的研究。他们发现,在任务结果主要依赖于运气时,比如选课、抽卡娱乐、盲盒消费等,人们更倾向于选择由人工智能提供服务。因为人们认为,AI的运气比人类更好,更有可能带来理想的结果。

然而,在理财、医疗等需要一定能力完成的任务上,我们更倾向于选择由人类主导的系统来完成。这一发现在一定程度上证实了,企业需要为不同类型的任务匹配不同的人机协作系统。

AI让工作技能提升还是丧失?

随着AI的加入,企业员工的组成也从传统的仅有社会人,转变为社会人与AI机器人的组合。在这种情况下,企业需要面对新的管理挑战,包括如何管理AI员工以及如何调整组织策略以适应AI员工的加入。目前已有大量研究发现,在与AI合作之后,员工对公平性的感知和情绪都会发生很大的变化。

例如,智能审计的引入可能会导致员工感到焦虑和不安全,从而抑制其自主创新的意愿,进而影响员工的绩效。在这种背景下,许多组织行为学领域的学者开始研究,AI员工的引入如何影响员工的心理状态、团队协作、领导力,以及人力资源的计划、招聘、培养和管理过程。

在这里,我分享两项最新的研究成果:这篇最新发表的研究,探索了员工在企业引入智能知识管理系统后如何适应工作变化。研究发现,员工在与AI支持系统合作时,存在两种适应机制。

第一种:效益最大化机制,员工会最大程度地利用AI来提高自己的认知能力,从而提高工作绩效。

第二种:干扰最小化机制,AI破坏了员工原有的工作流程,导致员工感到角色冲突,进而使得他们的绩效受损。

研究进一步分析发现,采用效益最大化策略的新员工其绩效提升速度最快,而采用干扰最小化策略的老员工,其绩效相对也表现不错。

因此,论文建议企业在引入这样的AI系统之后,应该着力鼓励新员工更多地采用效益最大化的机制来应对AI系统。换言之,鼓励他们利用AI学习新知识,以提高工作绩效。对于那些已经熟悉了原有工作流程的老员工,组织应该帮助他们通过AI来调整自己的工作框架和流程,从而降低角色冲突,缓解AI所带来的干扰。

与此相关的另一个话题是人机合作过程中员工工作技能的变化管理问题。一旦AI接管了计算性强、重复性、结构化的任务,理论上我们人类就可以转而从事一些更具有意义、更需要创造性的工作,以促进员工技能的提升。我们将这个现象称为“AI导致的技能提升”。

举例来说,对于程序员而言,在AI的辅助下,他们可以将更多时间用于思考程序的业务逻辑,而不是花费大部分时间在修复程序中的错误上。

然而,对于某些知识型员工来说,AI并不一定会促进技能的提升,反而可能导致一种“去技能化”的趋势。

根据一项2023年的研究,医生在使用诊断辅助系统后,其独立诊断的准确性明显下降,因此AI辅助诊断系统的使用实际上导致了医生的“去技能化”。

另一项研究也发现,手术机器人的引入大大减少了住院医师实际操作训练的需求,从而降低了医生的动手能力。

因此,现在住院医生需要采取不同于以往的方式来提高自己的动手能力,某位医生学者就提出过一个影子学习的方法,通过尽早专业化、抽象演练和监督实践的方法来培养医师的动手能力。

任务失败时,人与AI谁来负责?

除了激励和培养员工以更好地适应人机协同工作的环境之外,对企业而言,还有一个更大的挑战,即如何对人和AI的责任进行认定。特别是当服务失败时,到底由谁来承担责任?

之前关于无人驾驶车出了车祸之后的责任问题,引发了广泛的讨论。主流观点认为,AI系统本质上是机器,无法承担法律责任,因此问责对象应该是系统背后的人或机构。然而,也有研究认为,当算法透明度越来越高后,AI在一定程度上可对其所做的事情负责。

因此,当人和AI共同完成任务时,企业如何分配相应的责任就成了一个备受关注的问题。换句话说,企业是否愿意主动对AI的失败负起责任,将影响到人机协作系统的采纳和最终的绩效。

不过,这一问题涉及法律、政策、技术以及相关管理研究,尽管有很多讨论,但成熟可靠的研究实际上并不多见。

我们团队目前试图在这方面展开一项探索性研究,研究的场景是互联网医疗平台。

随着越来越多的互联网医疗平台采用生成式人工智能提供AI问诊服务,平台是否需要为AI问诊的责任提供支持,成为一个非常有趣的研究话题。

我们希望通过这项研究探索互联网医疗平台是否愿意为AI问诊服务承担责任,以及这种决定如何影响患者使用平台的意愿。我们计划在两个不同的场景下进行研究,分别是纯粹的AI问诊和AI与医生混合问诊。我们将通过一定方式来调控患者对平台承担责任的感知,并检验患者对平台的信任度和使用意愿。在研究过程中,我们还会引入AI问诊和医生问诊的感知中立性作为调节变量。

我们的理论假设是,在其他条件相同的情况下,当AI愿意为问诊质量承担责任,并且患者认为AI问诊更加客观中立时,患者更愿意使用互联网平台的AI问诊功能。这项研究仍在进行中,我们期待未来能够分享更多的成果。

综上所述,我们建议企业根据不同任务匹配不同的协作模式,并重新思考AI员工和人类员工合作下的激励和培养问题,以及做好AI系统的责任管理。

最后,借用“各美其美,美美与共”这句话,人类与AI协作的理想境界可能是“各智其智、各尽其长”,即充分发挥人类与AI各自的优势,互相学习,从而提升人机协作的整体效能。

#AI weekly