2024-08-29 08:32

人工智能危机,企业的“危”在哪里-九游会登录

本文来自微信公众号:,作者:张光磊、孟宇嫣、龙立荣、贺伟,题图来自:ai生成

文章摘要
ai技术的发展对企业和员工带来了广泛的伦理和操作危机。

• 📉 ai技术可能导致大量职业被取代,企业面临新旧成本挑战。

• 🤖 人-ai组合工作模式成为常态,改变员工和管理者的角色与决策。

• ⚖ 工作中的人-ai互动引发伦理问题,需平衡技术应用与人性化管理。

数字化浪潮席卷而来,人工智能(ai)正以前所未有的速度渗透到人类社会的各个领域。对于ai广泛的应用,虽然众说纷纭,但相关观点主要基于两个方面的现实。


一方面,ai在多个生产场景下表现出与人类相似甚至更突出的能力,在多个行业掀起波澜。麦肯锡咨询公司在2023年的报告中指出:“ai取代人类工作的时间被大幅提前了10年,在2030年到2060年间全球50%的职业将逐步被ai取代。”同时,ai的应用已经实现从个体优化向规模优化的质变,摆脱了个体逐一自动化的高消耗,实现企业群体化协同的自动培训与生成。


据此,我国提出“深入推进数字经济创新发展,深化ai等研发应用”的发展要求(参见《2024年国务院政府工作报告》),以实现从技术上引领全球数字化浪潮,补齐我国在高端数字技术领域的短板。由此可见,ai在企业内的深入渗透已是必然。


另一方面, ai技术作为信息产业中的一项高新技术,虽然在实际应用中已经取得了显著的成效,但迄今为止,其技术原理尚未有明确的理论解释。这极大地增加了ai在隐私保护、数据安全、偏见极端化、系统安全及自主性等方面的风险。同时,自动化和智能化技术的广泛应用可能会导致一些工作岗位消失,从而对社会产生影响。此外,ai技术的快速发展也可能导致社会和经济发展的不平衡。


即使ai危机已迫在眉睫,但目前仍然没有能充分抵消其危害和负面影响的有效方案。人们一边拥抱由技术进步构造的新世界,一边谴责技术革新的无情。这场ai替代危机,从组织到个体无一幸免,人们却只关注到单一情境而忽略了多情境的整体构型。


本文从企业视角出发,从多个角度观察ai时代企业的常态化工作实践模式,并从企业管理指向企业伦理,深入剖析这一模式下企业所面临的广泛危机的表象及本质。


人-ai组合成为工作实践的常态


根据人和ai在工作中占据的比重,可简单将所有的工作实践划分为人类完全工作实践、人-ai组合工作实践、ai完全工作实践(见图1)



这三种类型的演变反映了ai技术由弱到强的进化,这一趋势似乎预示着未来的终极工作形态就是人类的“失业”。这一天是否会到来,需要多久到来,还是个未知数,但是鉴于当前ai技术的飞快发展,本文假定,在未来很长一段时间内,“人-ai组合”这一智能型工作实践将成为常态化工作实践模式。


ai技术引发的变革下,工作模式由纯劳动力工作向人-ai组合工作实践的转变是必然趋势,并非选择让该模式成为了现实,而是现实选择了该模式(见图2)



一方面,历史经验告诉我们,重大的技术变革往往会引发市场阵痛并使其重生。第一次工业革命,蒸汽机和纺织机淘汰了马夫和大部分依赖手工技艺的工匠和手艺人,但是也催生了大量的工作岗位及机械相关职业。第二次工业革命,电气技术的发展结束了蒸汽时代的辉煌,进而催生了电气相关的岗位。现代信息技术的应用将手工操作系统化、自动化,改变了传统的生产和管理模式,虽然这导致了部分员工失业,但技术的终极导向并不是取代人类,而是服务于人类创造更美好的生活。


另一方面,国家战略进一步推动了人-ai组合工作实践模式的发展。党的十六届三中全会中便指出“科技发展应当以人为本”,国家的中长期科学和技术发展规划也始终将科学技术的发展立于社会需求之上。2018年国务院印发的《关于全面加强基础科学研究的若干意见》指出,加强基础科学研究是为了长远的科技进步和人类社会的福祉。以赋能员工为目的的新型人机工作环境是科技成果转化为实际生产力,进而反哺经济社会的重要举措。企业个体作为社会的一员,理应树立有责任有担当的形象。与高校、科研机构等合作实现ai赋能员工,是企业响应国家战略推动社会经济发展的重要途径。


人-ai组合工作实践在不同的环境和情况下能够产生不同的工作模式,如工作实体从纯粹的人类员工转变为人类员工与ai的协同工作,决策实体从人类领导转变为ai领导等。ai技术发展及企业数字化转型对组织决策和运营、人力资源管理实践、员工工作方式等方面均产生了革命性的影响,工作场所中以人为主体的工作实践也将发生根本性转变。


人-ai组合的工作实践模式较多,包括但不限于人机合作(cooperation)、人机协作(collaboration)、人机交互(interaction)和人机集成/配置(configuration)。不同类型侧重点略有不同,本质是人和以ai为代表的智能体在不同维度、层面上的组合。


本文根据企业的人员组成,将人-ai组合的智能型工作实践划分为员工和管理者两种类型(见图3)。这两种类型具备工作场所技术迭代对以下维度的诉求:高数字化程度(深度和广度)和高人力资本需求(技能和效率)。两种类型均显示出人类与智能体的互补能动性与增强智能性。组合型管理者类型中ai与人类为同属管理层级协作关系,由ai和人类管理者共同进行监督、评估、反馈、决策等工作;组合型员工类型中ai与人类为智能协作关系,在涉及任务、情感、认知等因素的交互过程中共同实现目标。



ai日渐融入人类工作实践的连环危机


ai的外延随着时间推移和技术发展不断扩展,现有的技术不仅能够执行机械性任务,还能进行复杂思考,有能力完成重复性、强规则性甚至认知性的工作,具有强大的分析、学习和决策能力。这些能力与人类员工部分工作能力重叠,因此,ai替代人类的直接负面影响在个体层面十分显著,在企业则往往隐匿于ai融入企业的过程当中。在人与ai相互融合的过程中,企业在构建相关生态时面临着环境搭建、人才配备及企业运营等方面的连环危机(见图4)



首先,在环境搭建上,企业会面临将复杂技术嵌入已经成熟的工作环境中带来的旧成本沉没消散和新成本投入消耗的问题。此外,随着数字化的不断深入,如何更有效地将人员与环境匹配,是企业要面对的真正问题。


一方面,数字化组织提高了对复合型人才和数字化专用人力资本的需求,全球企业面临着数字人才供求逆差;另一方面,企业内部也面临着一般人力资本向专用性人力资本的转型需求。部分企业推出了面向外部人员的教培项目,如“谷歌职业证书项目”(google career certificates)、“亚马逊技术培训项目”(amazon technical training program)及腾讯针对高校学生的公益性项目“云梯计划”。


但这些项目无法有效平衡人才缺口的量,而且大多数培训为付费项目,更加提升了企业转型的成本。企业内部的数字人才培养依赖于人力资源管理部门,缺乏成熟理论指导,形同于一笔待验证的试错成本。为了迎接工业4.0的挑战,组织需要激活每一个员工,使其成为“超级个体”。如何跨越人才缺乏的主要障碍,并寻找有效且可复制的路径,是学界和实业人士的长久命题。


其次,企业的数字化转型推动组织架构向虚拟化、网络化、扁平化转变。技术驱动结构转变带来的好处显而易见。一方面,组织内部联结加强、响应速度加快,对组织绩效、客户体验提升等具有积极影响。另一方面,组织外部联结也更便捷,由此推动新商业模式产生,改变了业务生态与价值创造方式。例如,盒马和各种品牌的快周期产品研发,打造了一种基于合作、创新和数据驱动的现代商业策略。


工作实践数字化打破了空间限制,员工游走于物理和虚拟空间之间,个体身份逐渐模糊,个体之间的非正式关系也受到不同程度的影响。例如,远程办公改变了员工对组织的认知依恋,也改变了组织成员之间的社会关系,进而与组织期望相违背。


组织扁平化不可避免地增加了管理难度和沟通成本,与数字化工作实践背景下的信息冗余一起对决策产生影响。以小米为例,小米早期采用扁平的三层组织架构以快速响应市场变化并保持和客户的联系,在2018年7月的ipo后,小米进行了史上最大的组织变革,被外部解读为去扁平化。


最后,企业的人-ai组合工作实践运营以人和技术为主导,忽视了文化氛围和价值观的重要作用。企业内部创新主体的价值取向与行为规范受组织文化氛围和企业价值观影响。人与技术的不断融合,往往是企业和组织被动接受由外向内的技术发展变革压力的过程。企业在不断适应新发展的过程中极易忽略文化氛围和价值观等软配置的建设。同时,如何选择适合组织结构和文化的推广方式仍是难题,未来应该探究在数字化背景下如何通过内外赋能与文化加持使组织向可持续发展演进。


人-ai组合型工作实践的伦理危机


更智能的工作方式意味着在数字化方面更加深入,这不仅展现了科技的进步,还增强了人与ai之间的互动。它在完成工作的基础上包含了更多的人际关系、态度、情感以及思考方式,甚至还涉及道德和伦理问题。人-ai组合型工作实践的工作者由人和虚构的ai组成。ai技术基于大数据模型向人类提供建议、帮人类作出决策,人类则通过向ai不断输入海量信息来实现反向赋能。


德勤《2023年度全球人力资本趋势报告》指出:“人与技术之间原有的独立边界正逐渐消失,组织需要探索如何利用技术既发挥人类的独特优势,又优化其工作能力,即通过技术赋能人才。”在完全的人-ai组合工作实践中,决策过程在很大程度上由ai主导,决策主体从人类实体向数字实体转变(即决策实体逆转)。届时我们会首先在数字世界里制作出各种东西,然后再根据需要将其变成现实中的实体物品。


也就是说,现实生活越来越像是数字世界的复制品,而人类则在上层建筑的架构及底层。同时,人类对组织和社会的影响逐步模糊。人与ai融合的终极形态标志着智能技术从传统的被动工具转向能动的决策实体,同时也将企业的焦点拉向核心伦理。


ai伦理是技术发展中不可回避的重大问题。ai并不懂得什么是对什么是错,它是人类根据自己的理解、价值观和决策过程来设计编写的。所以当ai技术的广泛应用带来许多伦理上的困惑时,也仅仅是按照人类过去的经验处理。


大部分企业已经走上ai日常化的道路,所以需要构建完整的法律框架来规避由ai技术应用引发的伦理问题。例如,用于收集、存储、分析和报告个人或团体在工作中的行动或表现的电子监控系统已在企业中大范围应用,这是无视员工个人意愿的监视行为,这一行为是否侵犯了员工的隐私权仍不得而知。接下来,本文从人-ai组合工作实践的身份出发,阐释这两种情境下的伦理危机(见图5)



身份一:人-ai组合型员工


人-ai组合型员工超越了传统的人机合作或协同工作模式,更加强调ai与人类使用者各自优势的互补,而非简单的替代。人-ai组合的过程类似于智能增强,即ai技术与人类能力整合,形成更为复杂和动态的工作模式,促使人类与智能体形成共同的理念、实现共同的目标。


ai在实践中的应用,已经展现出与人类工作融合的多样化效能。阿里小蜜与京东客服这类ai客服系统能高效处理基础咨询,复杂问题则交由人工处理。briggo coffee通过部署自助式咖啡机器人优化前台服务,将人力集中于更需定制化的后台工作,实现成本与服务的双重优化。


政务领域,南昌和乌鲁木齐采用基于云技术的机器人提供标准化服务,将专业任务交给人工处理。医疗行业,上海的微创医疗集团和傲鲨智能公司分别研发出了多臂腔镜手术机器人与智能外骨骼机器人,使手术过程更精准、高效。从这些案例中,我们可以一窥ai在各个领域与人类合作的巨大潜力。然而,ai无论是作为工具还是同事,都存在着引发伦理危机的可能(见图6)



随着人-ai组合模式的普及,工作环境和团队结构也不断变化。员工与ai系统的互动相较于人类同事互动频率更高,这种新的工作模式可能使员工对工作期望和行为规范感到困惑。


首先,人和ai工作职能会有重叠。在ai技术进入工作场景之前,一些重复性、标准化的工作是由人类完成的,但现在这些任务逐渐被ai替代。虽然ai主要是以“辅助工具”或“自动化机器人”的形式帮助人类完成工作,但当ai扮演“数字员工”的角色时,它们会更像是具有人类特点和自主决策能力的伙伴,这让员工难以明确自身与ai之间的工作职能边界,究竟工作的哪些部分应该由自己完成,哪些应该交给ai。


其次,ai在完成任务时的高效率和准确性可能会让员工对自己的工作贡献和价值产生怀疑。面对同一件任务,当ai的完成度能媲美人类,或者第三方难以区分ai和人类员工对一项工作成果的贡献度时,员工会质疑自己的能力和重要性。此外,当ai具有更高的自主性和决策能力时,还可能引发一些新的伦理问题,如ai决策的透明度和可解释性问题、ai决策对人类员工的偏见和歧视问题等。


最后,当人类和ai对同一工作任务负责时,责任和成果归属会变得模糊。尤其是当ai扮演“数字员工”这一角色,与员工共享类似的工作职责和互动模式,可能会导致责任归属不明和期望收益不清晰等问题。


上述情况加深了人-ai组合工作实践中员工角色的模糊性。面对角色模糊问题,员工会感到迷茫和不安,就像在茫茫大海中失去了方向。他们更倾向于采取保守策略以避免进一步的不确定性和风险,表现为回避的工作行为,如减少工作量、避免接受新的任务或挑战及减少与同事和ai的互动等,因为这些行为可以降低不确定性和心理不适。同时,在角色模糊性增加的情况下,员工探索新机会和扩展职责范围的意愿会降低,因为这可能会带来更多不确定性和潜在冲突,他们不确定这些行为是否适合或被期待。


人类员工对贡献有效的工作行为,如提出新想法、探索新的工作方法或扩大工作范围等持消极态度,这不但会阻碍个人的职业生涯发展,还会限制组织的发展。员工要与ai有效合作,不仅需要对ai的功能、限制和适用场景有深刻的理解,还需要在遵循伦理规范和组织价值观的前提下探讨和建立与ai协作的原则和规范。


身份二:人-ai组合型管理者


在人-ai组合型的管理过程中,ai与人的职位、权力、职责的划分有重叠也有制约。采取ai与人双重管理的方式是为了合理分配任务、资源,优化决策,提高决策效率和决策准确率。具体而言,ai依托大数据与算法分析形成最合理的决策,人类领导根据组织实际情况并结合个人专业知识和经验决定是否采纳ai决策,并将决策结果输入ai系统,进一步对ai进行迭代、训练,不断升级优化决策系统的算法。


人-ai组合管理的过程涉及ai对员工的单向监管。例如一些企业通过ai监控系统跟踪员工的计算机使用情况,包括他们在工作时间内访问的网站、打开的应用程序以及使用的社交媒体平台,并自动检测电子邮件和聊天记录的关键词、短语。同时,人类管理层会结合监管数据或其他评估数据对员工进行绩效评估以及任命决策等。例如ibm将旗下的ai平台“沃顿”(watson)嵌入到人力资源管理活动中,沃顿可以基于员工的履约类型、教育经历等信息出具对应的薪酬规划建议,还可对企业的人力资源数据进行统计分析来辅助招聘和人员优化等。


对于大多数企业管理者而言,应用ai管理员工已经成为重要需求。德勤于2017年发布的调研报告《与机器人老板共舞,你准备好了吗》显示,近40%的受访管理者认为,目前自己超过1/3的工作可以由人工智能替代。尤其是在财务管理、风控监督等工作中,ai的应用可能会更加普遍。同时,75%的受访者认为自己的工作在5年内需要ai的协助,这一需求在企业规模大于2000人时会更为迫切。


尽管人类管理者存在用ai协助管理这一需求,但ai在组织中的普及并不会一路畅通,部分算法辅助决策的研究表明人们对算法建议的接受度存在差异,不少的人类决策者更相信自己的判断,特别是在算法出现错误之后。


一些研究表明,ai在数据处理、模式和趋势分析上表现出色,还可无疲劳工作、多任务并行处理工作,在工作效率上优于人类。但也有观点认为ai在人事决策方面并没有人类公平,因为ai决策过程没有或无法考虑候选人的创造力、热情这类极难量化的维度以及独特的社会背景等定性信息。所以ai、人类管理者及员工自身对同一工作行为可能会有不同的认知。


在部分情况下,ai的无偏见反馈能为管理者提供参考,但ai的反馈都是基于给定信息的量化运算,而现实中的人事决策包含了人类情感、道德判断、人际互动等复杂因素,且这种情境更偏好有“人情味”的决策。所以,大数据与算法的客观性与人类经验判断的主观性可能在人事决策反馈时给出矛盾的结论。


对于员工而言,当ai对某一行为的反馈与自己的认知不一致时,员工对ai的信任度会降低。如企业工作电脑后台的行为监测系统会无差别地攻击或限制员工的网页浏览行为,并不考虑该行为是否与工作相关,这会让员工对ai系统的公正性和有效性产生怀疑并感到不满甚至反感。领导和ai给出互斥的反馈对员工而言则代表着企业规范强度较低,未能实现双重评价机制的统一,会降低其对组织内公平的预期。当反馈互斥且ai反馈为负面时,虽然ai并不具备实际的执行任务的能力,但员工对技术的不满会更加强烈。


对于人类管理者而言,信息是权力的基础,当算法与大数据参与决策,人类领导的信息匮乏感会迅速增加。一方面,信息的相对匮乏会使领导对自身能力产生怀疑,他们会因为自己有限的数据处理能力、结构理解能力等感知自己的决策效能较低,因此有可能过分依赖ai的大数据分析,逐渐放弃自己的判断。此外,互斥反馈会进一步加剧人类领导者的权力失衡感。


另一方面,算法已经在组织中成为一种新的权威,面对ai算法强大的数据处理速度和能力,人类领导有可能会将机器视为自己的竞争对手,互斥的反馈会强化人类与ai的对立和冲突,让人类领导感知到权力威胁。


在人-ai组合工作实践情境中,大多数企业都忽视了ai技术的广泛应用对管理者产生的负面影响,也忽视了基数最大的中层管理人员在应对这些伦理情境时面临的挑战,在企业基层承担管理职责的管理型员工也将承受更复杂的考验。


结语


随着ai技术的广泛应用,人们看到了这一技术的无限潜能,也察觉到未来道路中将布满荆棘。ai技术的快速发展,让劳动力市场的技术型劳动力群体向服务型和认知型转移。然而,并非所有人都会接受市场的“判决”,被替代者有可能会通过非市场机制和极端行为来抵制企业采用创新技术的决定。


如何在保障劳动力就业与技术进步之间找到平衡,在很大程度上反映了社会内部的力量平衡,以及技术进步的收益是如何分配的。这种平衡是社会力量在工作和技术之间交互作用的结果,未来的人类一定会与ai以某种形态共存。


脱缰的野马是危险的,但对ai的担忧也能够激起社会大众对伦理和安全性的讨论。我们可以明确地感受到,社会伦理框架和法律条款未能根据技术的变化调整。企业作为社会的重要组成部分,应该履行相应的责任,主动在组织内部建立相关规范。通过人性和伦理规范算法方案,通过调和员工和技术间的利益平衡,将技术视为赋能员工的工具而非敛财的手段,从而度过危机。


技术本身并不会导致危机,如何应用技术才是关键,它决定了企业面临的是危险还是机遇。


本文来自微信公众号:,作者:张光磊(武汉理工大学管理学院教授)、孟宇嫣(武汉理工大学管理学院硕士研究生)、龙立荣(华中科技大学管理学院教授)、贺伟(南京大学商学院教授)

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在
热门标签
网站地图