引用格式:Coeckelbergh, M. (2020).AI ethics. Mit Press.
#什么是人工智能?
人工智能可以定义为通过代码(算法)或机器显示或模拟的智能。
什么是智能?智能是人所特有的吗?
1、AI就是要创造像人类一样思考或行动的智能机器。→菲利普·詹森(Philip Jansen)等人将AI定义为“具有按照人类智能标准被认为有智能的机器的科学和工程”。
2、智能不一定要像人人类,可以采取一种更加中性的对于智能的定义,即独立于人类智能和通用或强人工智能相关目标的术语。通过尝试列举各种认知功能和任务,如学习、感知、规划、自然语言处理、推理、决策和问题解决等来定义智能。→这种定义能否实现存疑。
机器能思考吗?什么是思考?
1、
思考是对符号的操纵(托马斯·霍布斯等)
科学,尤其是生物进化学、神经科学和人工智能,可以完全解释人类的意识(保罗·丘奇兰)
不存在任何超越身体的东西,“我们本身就是一种机器人”(丹尼尔·丹尼特)
2、
人脑不是计算机,心智不是通过符号操纵来运作的。我们拥有一个基于经验的常识性知识的无意识背景。这种知识是默会的,无法被形式化。(德雷福斯)
塞尔也反对计算机具有真正的认知状态或理解意义的观点,在他的中文房间论证的思想实验中,不懂得中文的塞尔可以在一本英文规则书的指导下完成对中文问题的回答,类似地,图灵测试所支持的计算机能够在与人类不可区分的层次上回答人类的问题就能说明其具有智能的标准是不正确的。因为计算机可能也是在不理解人类的问题的情况下根据一些计算机语言规则的指导完成了对问题的回答,但这并不能说明它们能够思考或是具有智能。
→简单来说就是:
1、机器能够像人类一样思考,因为人类的思考本就没有什么特殊的,可以通过科学(生物进化学、 神经科学和人工智能)得到解释。进而人类也可以基于这种科学解释制作一个能像人一样思考的人工智能。
2、机器不能够像人类一样思考,因为人类的思考是复杂的,有着无法被形式化的部分。诸如常识知识、默会知识等。进而基于科学进路创造的人工智能必然是不可能实现像人一样思考。
我们应该如何对待AI?AI是否应该被予以道德考虑?
因为我们对AI的态度会影响我们自身的道德品质。所以我们不能虐待,而是要善待AI。(基于康德--我们对狗的态度会影响我们自身的道德品质,所以我们不能轻易射杀狗。)
大家的讨论
讨论后的小总结
有待论证的观点:人类需要对AI进行道德考虑。
没有从AI的角度加以论证-诸如对AI进行道德考虑是因为AI具有主体性或自我意识?
而是从人的角度加以论证,即对AI进行道德考虑是因为如果不对其进行道德考虑的话会损害我们的道德品质。← 对康德的论证的类比:对狗进行道德考虑的话是因为如果射杀狗的话会损害我们的道德品质。
×人(我们对人有不伤害的义务)
√ 狗(我们对狗没有“不伤害它的义务”且伤害狗会损害我们的善良品质)
√ AI(我们对AI没有“不伤害它的义务”,且伤害AI会损害我们的善良品质)
× 洗衣机(我们对洗衣机没有“不拆解的义务”但拆解洗衣机不会损害我们的善良品质)
AI的道德责任归属问题
1、如果你能做出决定,具有行为能力,对世界和他人产生了影响,你就应该为自己的行为负责。
2、如果你知道自己正在做什么,并知道可能产生的后果,你就有责任。
AI可以做出具有道德后果的决定和采取具有道德后果的行动,但它不知道自己在做什么。[不满足条件2]→AI不能为自己的行为承担道德责任。→人类需要为机器的行为负责。
1、AI系统可能会非常迅速地做出决定和行动,例如在高频交易或自动驾驶汽车中,给人做出最终决定或进行干预的时间太多,人如何为这种行为和决定负责呢?
2、人工智能是有历史的,当人工智能在特定的应用背景下做事时,可能就不再清楚是谁创造了它,谁先使用了它,以及责任如何在这些不同的相关方之间分配。
3、从技术系统由许多相关关联的元素组成的意义上来说,也有许多东西-有人工智能算法,同时这种算法与传感器互动,使用各种数据,并与各种硬件和软件互动。所有这些东西都有历史,都与编程或生产它们的人有关。当出现问题时,并不总是很清楚是“人工智能”导致了问题, 还是系统的其他组件导致了问题,甚至不清楚人工智能在哪里结束,技术的其他部分在哪里开始。这也使得责任的归属和分配变得困难。
4、责任的第二个条件-认识论条件-指要负起责任,就必须知道自己在做什么。
就人类而言,我们希望某人能够解释她所做的事情或决定。因此,责任意味着可回答和可解释。如果出了问题,我们希望得到答复和解释。例如,我们会要求法官解释她的决定,或者我们会问罪犯为什么要这样做。