您好,欢迎访问三七文档
当前位置:首页 > IT计算机/网络 > AI人工智能 > 人工智能替代人类决策的伦理问题
人工智能替代人类决策的伦理问题人工智能技术发展至今,对人类社会产生了深远的影响。大数据,深度学习等人工智能相关的技术已经融入我们的生活。人工智能技术正起着辅助人类做决策的阶段,诸如医疗专家系统等等对医生的决策辅助。在可见的未来,人工智能很可能会发展到大规模替代人类做决策的阶段,这时候就会产生一些伦理问题。本文旨在探讨人工智能替代人类决策这件事可能带来的一些伦理问题。过去和现在:机械自动化与决策辅助广义上来说,人工智能指的是通过某种方式让机器拥有人的逻辑判断能力或“思维能力”,以根据特定输入条件做出相应的判断或决策。其实广义的人工智能早就已经走出了科幻小说,在生活中被广泛的应用了。发展至今,人工智能对人类生产模式的影响可被粗略的划分为两个阶段。机械自动化阶段和决策辅助阶段。机械自动化阶段起始于第二次工业革命,此时所谓的“人工智能”指的是通过单片机等固件,使机器拥有简单的处理线性逻辑的能力,并能被人定义多种不同的输出流程(例如:如果输入为A,则执行流程X;如果输入为B,则执行流程Y)。这当然还远远没到所谓“智能”的程度,但即便如此简单,这类技术的应用在当时也带来了革命性的生产模式进化,使得机器不仅仅能作为风车、牲畜的替代去进行高效生产,更能在标准化的生产流程中完全替代人进行复杂生产劳动。可以说,初期阶段的人工智能为当今整个大机器协同生产体系奠定了基础,极大地释放了人类的生产力,开启了自动化生产时代。现在的阶段随着自动化生产的普及,进入了决策辅助阶段。机器在初级人工智能的赋能下已然成为了人类标准化劳动力的“替代者”,但是这些劳动力该超什么方向使用依旧需要人类根据市场态势及消费者需求进行灵活地决策。如今,在网络与算法进一步发展的驱动下,人工智能的应用范畴也在不断的扩大。除了驱动机器作为标准化生产活动的替代,人工智能更是被封存在数以千万计的软件中成为人类思考与决策的重要辅助。通过统计算法与办公软件,人们可以将计算机的超高运算效率与存储容量纳为己用,实现人类自身智能的增幅与扩容。现在已经有很多公司已经具备完善的BI系统,以数据驱动为核心辅助公司领导层更系统化、数据化的做出商务决策。那么接下来人工智能的应用又该向什么方向发展呢?阿尔法狗的面世也许已经揭开了人工智能应用第三阶段的序章。未来:决策替代传统意义上软件的核心工作是基于人类为其定义的输入(问题)与逻辑(解法)的基础上,驱动硬件进行运算并给出输出,在本质上仍然是个“苦力活”,没有主动发现问题,创造解法的能力。而阿尔法狗背后“深度学习”算法的跨时代意义便是在于其赋予而机器进行主动学习、主动理解并创造解法的能力。介于此,阿尔法狗仅凭自身实现了复杂环境中的博弈决策。当这类技术足够成熟,一个新的时代也将拉开序幕——机器不仅仅是人类思考的“辅助”,更能“替代”人类进行思考与决策,并寻找解决问题的方法。于是,在社会生产结构中,不仅是人类的劳动能力将被机器所“顶替”,此时就连决策能力也将被人工智能所逐步取代。以上对于未来的预判听起来似乎很遥远,但其实未来已经悄悄来临。谷歌和特斯拉近期就在进行新项目——无人驾驶汽车的紧张研发。无人驾驶汽车的算法本质就是让机器在一个纷繁复杂的动态博弈环境中代替人类做出标准化程度较高的分析与决策(开车)。随着类似产品的不断问世,人类也将会必然的迈向人工智能应用的第三个阶段。而当无人驾驶技术充分普及之后,司机这种决策标准化程度较高的技术工种也将便被彻底替代。人工智能技术进一步的成熟无疑将极大的提升人类总体的生产效率。但是目前对于人工智能的应用,不仅仅是技术上尚未成熟,更重要的是在伦理及法理维度人们也相当缺乏必要的准备。于是,在不远的将来,当人工智能开始逐步替代人类进行生产与生活决策的时候,各种新的难题也将接踵而至。伦理难题一:机器出错应如何追责虽然人工智能再一次迎来了发展的“黄金期”,但我们不可否认这个世界上永远不会存在“完美”的算法。机器和人一样也会犯错误。甚至在很长一段时间内,基于当前的人工智能发展水平,机器犯错的比例可能比一般人还要高。在这种假设前提下,人工智能的应用将带给人类的第一个伦理难题很可能就是:机器如果犯错,该如何承担责任与风险?众所周知,人类能形成生产协同网络的最核心基础是分工契约体系。这个体系规定着我们每个人在合作结构中的责任、权利与义务。其中被最常认作“公理”的一条是:当一个社会人承担某责任、做出某决策,他也就同时必须承担,至少是分担其决策所带来的收益与风险。而当人工智能替代人类进入生产环节做出决策时,一个极大的不对称就出现了:给人工智能赋予做出某项决策的责任是所有买家都会做的事(也是人工智能被创造出来的天职),但面对的是正面收益还是负面风险,人工智能都无法像人类那样对自己的决策负责。举无人驾驶汽车为例,如果AI控制的无人驾驶汽车出现车祸事故,其事故责任人是谁?是坐在车里的、完全没有参与驾驶的车主还是汽车厂家,亦或是程序员,还是AI本身?这种场景下谁又该担负主要责任?若想让AI负责,除了删除AI程序之外,似乎也并没有更好的选择。而删除程序的举措不存在任何实际的惩罚意义,更何况受害者也得不到任何形式的补偿。这个伦理问题日后将成为AI发展最大的问题,也会在将来人工智能被广泛应用后引起各界广泛的探讨。伦理难题二:人类该如何给人工智能赋权如上文所言,既然人工智能无法对其决策有效的承担责任,唯一相对的环节途径便是对人工智能所做出的决策进行更加严密的考核与监管。而一旦人们开始考虑如何“考核”或“监管”人工智能,新的逻辑困局也将就此诞生——如何在“最终”结果出现以前判定某项决策本身的对与错。在博弈环境中,任何决策往往都是环环相扣的,因此在盖棺定论之前,没有人能够轻易判断哪一步的决策是绝对错误或绝对正确的。以阿尔法狗和李世石下棋为例。在前三盘棋局中,当解说的专业九段看到阿尔法狗做出丝毫不合常理的下法时,解说员表现出了怀疑和嘲笑。然而出乎意料的是阿尔法狗赢了前三盘。或许当终局之后当解说员再回头看当时所谓“臭棋”的时候,才能明白阿尔法狗“那步棋”更深层次的全局意义。如果仅仅让人工智能去下一盘没什么赌注的围棋,无论输赢时候都不会有人纠缠于结果。但当人工智能的决策涉及到的是几千万的利润或几千万条生命时,如果人工智能给出的是人类当时所不能理解的答案,人类又该作何选择呢?假如人类选择不采纳人工智能的意见,那么人工智能进步与发展的意义何在(本质上还是人类自己做决策,人工智能提供信息辅助)?其数据驱动决策的优越性又如何付诸实践?但换个思路,如果人类信赖人工智能所做出的决策,那就又绕回到了第一个难题,万一发生意外责任由谁来承担?相当长的一段时间内,人类对于人工智能的态度一定会是矛盾的:如果人们不相信人工智能的决策,那无论技术再怎么成熟也无法应用;而倘若大多数人认可人工智能在决策方面具有超出人类的优势,又将直接导致人类监督无效、监管无门的尴尬境地。这个暂时无法解决的矛盾,将在人工智能的成熟与广泛应用期带来更多隐患。之所以人工智能的发展可能导致上文所言的各种伦理悖论,核心原因在于其本身相比于一般的技术有着极其特殊的地位。不同与一般的技术革新,人工智能正如文字、货币一般讲深刻的改变人类分工与协作的方式。而人生产协同模式的改变也必然将催生新的社会秩序与伦理导向。但是,目前人们面对新时代的新秩序普遍属于摸着石头过河的阶段,相应的伦理体系与法理体系尚未形成,很多人工智能相关的案例我们无法用现有的伦理及法理标准给出黑白分明的判断其实也是再正常不过的现象。因此,我们对摆在人工智能发展之路上的桎梏也不必过于忧虑,也许随着社会观念的自然严谨,现在看来无解的问题在未来也许会变成新的常识。
本文标题:人工智能替代人类决策的伦理问题
链接地址:https://www.777doc.com/doc-7915778 .html