制造商投资人工智能的三个道德考虑
虽然人工智能 (AI) 在金融部门等行业很普遍,在这些行业中,算法和决策树长期以来一直用于批准或拒绝贷款请求和保险索赔,但制造业正处于其人工智能之旅的开始。制造商已经开始认识到将人工智能嵌入业务运营的好处——将最新技术与现有的、广泛使用的自动化系统相结合以提高生产力。
IFS 行业总裁安东尼·伯恩 (Antony Bourne) 解释说,随着人工智能在行业中的普及,制造商必须构建道德体系。他概述了随着制造商加大对人工智能的投资并开始转向这一新技术方向,该行业面临的三个主要道德问题。
制造商正在大力投资人工智能。最近的一项国际 IFS 研究对 600 名受访者进行了调查,其中 383 名是主要制造决策者,他们使用的技术包括企业资源规划 (ERP)、企业资产管理 (EAM) 和现场服务管理 (FSM),发现超过 90%制造商正在计划人工智能投资。
结合 5G 和物联网 (IoT) 等其他技术,人工智能将使制造商能够创造新的生产节奏和方法。企业系统和自动化设备之间的实时通信将使公司能够实现比以往更具挑战性的商业模式自动化,包括按订单配置甚至定制制造。
尽管与人工智能相关的生产力、成本节约和收入增加,但随着人工智能变得更加普遍,该行业现在看到第一批道德问题浮出水面。以下是公司在进行 AI 投资时必须权衡的三个主要道德考虑因素。
1. 人工智能将如何影响您的员工队伍?
人工智能将通过创造以前无法实现的净新产品和服务来为营收增长做出最大贡献。对于执行售后服务合同的制造商而言,使用配备自然语言处理 (NLP) 功能的聊天机器人是显而易见的选择。
这些机器可以自动化大部分客户交互,帮助管理不需要特定升级的更简单的服务需求,从而使支持人员能够专注于更复杂的问题。此外,将 AI 系统与联网设备相结合,有可能使远程解决方案更高效、劳动强度更低。
但随着生产价值所需的工时数量下降,底线也会产生重大影响,这导致了关于人工智能将如何影响劳动力的各种观点和预测。
根据 2017 年全国赔偿保险委员会 (NCCI) 的一项研究,自 1990 年以来,美国制造业产出增长了 70% 以上,而同期就业下降了 30% 以上。这意味着,2016 年美国生产的商品至少比 1990 年多出 70%,而劳动力仅占 70% 左右,这在很大程度上解释了为什么在此期间美国制造业劳动生产率增长了惊人的 140%。
正如 NCCI 的研究指出的那样,制造业的自动化降低了生产成本,使美国制造商的成本降低,并且由于劳动力需求的减少而更具竞争力——特别是如果人工智能创造的新工作在过渡时期是短暂的。现在有人提出了一些重要问题——我们是否需要更短的工作周、新的商业模式或经济体系来应对这种转变?
但人工智能还有更多用途——增强和增强人类技能
乐观主义者认为人工智能技术可能会取代某些类型的劳动力,但效率提升将超过转型成本。他们相信人工智能首先会作为人类工人的指导进入市场,帮助他们做出更好的决策并提高他们的生产力。此外,对这项技术的投资有可能提高现有员工的技能,并增加与人工智能没有直接竞争的业务职能或行业的就业。
此外,最近的 IFS 研究指出,在制造业中协调人工智能和人力资源的前景令人鼓舞。 IFS AI 研究显示,受访者将 AI 视为创造而非淘汰工作的途径。大约 45% 的受访者表示他们预计人工智能会增加员工人数,而 24% 的受访者认为它不会影响劳动力数据。
2. 您是否诚实地评估了人工智能的潜在生产力和盈利能力?
组织很容易说他们正在进行数字化转型。他们已经接受了流行语,阅读了研究报告,咨询了分析师,并看到了有关潜在成本节约和收入增长的数据。
但数字化转型是不小的变化。这是您选择、实施和利用技术的方式的彻底转变,并且在全公司范围内发生。成功数字化转型的关键第一步是确保您从一开始就让合适的利益相关者参与您的数字化旅程。这意味着制造业高管在评估和传达 AI 的生产力和盈利能力收益与变革性业务变革的成本以显着提高利润时必须保持透明。
评估人工智能的价值更复杂
当企业首次投资 IT 时,他们必须发明新的指标,这些指标与更快的流程完成或库存周转以及更高的订单完成率等优势相关。但制造业是一个复杂的领域。根深蒂固的流程、紧张的供应链、资产贬值和日益增长的全球压力的结合,使得在满足日常需求的同时规划改善结果的前景充满挑战。高管和他们的软件供应商必须经过严格而谨慎的流程来识别挣值机会。
实施新的业务战略将需要资本支出和对流程变革的投资,这些都需要出售给董事会、投资者和其他利益相关者。因此,高管在讨论人工智能时必须避免过度承诺的诱惑。他们必须区分在狭窄或定义的流程中实施 AI 可以预期的增量结果,而不是整个组织的系统方法。
3.掌握 AI 成果——无论好坏
基于人工智能的结果可能会产生有意或无意的后果,但组织和决策者必须明白,他们将对两者负责。我们只需要关注自动驾驶汽车事故造成的悲剧,随后的挣扎作为责任的分配不是基于算法或人工智能的输入,而是最终由人类做出的潜在动机和决定。>
因此,高管们不能低估人工智能带来的责任风险。这适用于算法是否符合或考虑了组织的真实结果,以及对员工、供应商、客户和整个社会的影响。这一切都是为了防止对算法的操纵或输入 AI 的数据以有意或无意的不道德方式影响决策。
记住——人工智能毕竟是人类开发的工具
科罗拉多大学法学院副教授 Margot Kaminski 提出了“自动化偏见”的问题——即人类更信任机器做出的决定而不是其他人做出的决定。她认为这种心态的问题在于,当人们使用人工智能来促进决策或做出决策时,他们依赖于其他人构建的工具,但通常他们没有技术能力或实践能力来确定他们是否应该首先要依赖这些工具。
这就是“可解释的人工智能”至关重要的地方——人工智能创建了一条审计路径,因此在事前和事后,算法旨在实现的结果以及它正在工作的数据源的性质都有清晰的表示. Kaminski 断言,必须严格记录可解释的人工智能决策,以满足不同的利益相关者——从律师到数据科学家,再到中层管理人员。 “与计算机科学家相比,律师可能对不同类型的解释感兴趣,例如一种解释,它可以洞察决定是否合理、是否合法,或者允许人们以某种方式质疑该决定,”卡明克西说。
您准备好通过 AI 进行数字化发展了吗?
制造商将很快摆脱试图使用机器复制人类智能的地步,走向一个机器以人类思维无法实现的方式运行的世界。通过 AI 实现真正的数字化转型将看到它对组织内所有流程的影响,自动化系统并使重复性任务成为遥远的记忆。
虽然这将降低生产成本并增加组织在有限投入的情况下能够回报的价值,但这种转变也将改变人们为行业做出贡献的方式、劳动和民事责任法的作用。将有道德挑战需要克服,但那些在拥抱人工智能和对其潜在利益保持现实之间取得适当平衡的组织——同时让员工开心并反过来为社会做出贡献——将篡夺并接管。你会成为他们中的一员吗?
物联网技术