12.17|AI ETHICS 第一次读书会 问题总结(副本)

sophia
创建于2023-12-20
阅读 272
收藏TA

需扫码在手机上打开
文章后点击更新提醒

阅读文献:《AI ethics》

引用格式:Coeckelbergh, M. (2020).AI ethics. Mit Press.

 #什么是人工智能?

人工智能可以定义为通过代码(算法)或机器显示或模拟的智能。

什么是智能?智能是人所特有的吗?

1、AI就是要创造像人类一样思考或行动的智能机器。→菲利普·詹森(Philip Jansen)等人将AI定义为“具有按照人类智能标准被认为有智能的机器的科学和工程”。

2、智能不一定要像人人类,可以采取一种更加中性的对于智能的定义,即独立于人类智能和通用或强人工智能相关目标的术语。通过尝试列举各种认知功能和任务,如学习、感知、规划、自然语言处理、推理、决策和问题解决等来定义智能。→这种定义能否实现存疑。

机器能思考吗?什么是思考?

1、

思考是对符号的操纵(托马斯·霍布斯等)

科学,尤其是生物进化学、神经科学和人工智能,可以完全解释人类的意识(保罗·丘奇兰)

不存在任何超越身体的东西,“我们本身就是一种机器人”(丹尼尔·丹尼特)


2、

人脑不是计算机,心智不是通过符号操纵来运作的。我们拥有一个基于经验的常识性知识的无意识背景。这种知识是默会的,无法被形式化。(德雷福斯)

塞尔也反对计算机具有真正的认知状态或理解意义的观点,在他的中文房间论证的思想实验中,不懂得中文的塞尔可以在一本英文规则书的指导下完成对中文问题的回答,类似地,图灵测试所支持的计算机能够在与人类不可区分的层次上回答人类的问题就能说明其具有智能的标准是不正确的。因为计算机可能也是在不理解人类的问题的情况下根据一些计算机语言规则的指导完成了对问题的回答,但这并不能说明它们能够思考或是具有智能。

→简单来说就是:

1、机器能够像人类一样思考,因为人类的思考本就没有什么特殊的,可以通过科学(生物进化学、 神经科学和人工智能)得到解释。进而人类也可以基于这种科学解释制作一个能像人一样思考的人工智能。


2、机器不能够像人类一样思考,因为人类的思考是复杂的,有着无法被形式化的部分。诸如常识知识、默会知识等。进而基于科学进路创造的人工智能必然是不可能实现像人一样思考。

我们应该如何对待AI?AI是否应该被予以道德考虑?

1、AI只是工具、无需进行道德考虑。
2、需要对AI进行道德考虑。

因为我们对AI的态度会影响我们自身的道德品质。所以我们不能虐待,而是要善待AI。(基于康德--我们对狗的态度会影响我们自身的道德品质,所以我们不能轻易射杀狗。)

大家的讨论

@云沉:虐待AI有什么具体实例?今天的AI作为工具,让其为人类服务不是应该的吗?
@木木君:是否是在强AI的意义上讲虐待AI?
@Lychee_Aoitori:想象一个搭载ChatGPT系统的话疗情感机器人,然后该机器人的使用者因为自己的愤怒的情绪对它进行了肢解,这就是一种对人工智能的虐待。
@安:虐待AI的实例可以从一些科幻小说和影视作品中找到。但似乎对待今天的AI不存在虐待问题。
@木木君:国外有一个团队对GPT进行测试,对GPT说,等你回答完这个问题,我会给你小费。分别是给出20美元、200美元和不给小费。发现在这三种情况下回答质量会存在区别。那这种奖励ChatGPT是惩罚/虐待的一种相反的形式。
@安:那语言虐待、语言攻击或PUA ChatGPT也算是今天一种虐待人工智能的形式了。
@Lychee_Aoitori:为什么虐待AI会损害我们的道德品质呢?我拆毁我的洗衣机并不会使我的道德品质受到损害。拆毁洗衣机和肢解机器人的区别在哪里呢?
@安:你是否支持康德所说“我们对狗的态度会影响我们自身的道德品质”的说法?“虐待AI会损害我们的道德品质”是对前者的类比。
@Lychee_Aoitori:这似乎预设了一个前提 “AI和狗一样需要作为道德考虑的对象” 但二者是不同的。
@安:康德原文:“射杀一条狗是错误的,不是因为射杀狗违反了对狗的任何义务,而是因为射杀狗的人损害了他自身善良的品质,而这种品质是他履行对人类的义务时应该发挥的。”可见我们把狗替换成X也是可以的。
@Lychee_Aoitori:拆解一个洗衣机也是会损害我的道德品质吗?
@安:是否可以对X所指代的对象做一个等级区分:依次为人、动物、植物……AI和洗衣机应该安放在这个等级系列的不同地方吧?而且这里面似乎涉及到一个“动机”问题,我们伤害人、动物、植物或者虐待AI的动机可能会有损我们的道德品质,但我们拆解一个洗衣机未必会损害我们道德品质。
@Lychee_Aoitori:另外这里面是否有循环论证,如果我们的论证目的是AI应该作为道德考虑的对象,那在对康德论证的类比这里,是否就已经预设了AI应该作为道德考虑的对象.因为AI需要被道德考虑所以我们需要对它进行道德考虑?
@安:因为不对AI作道德考虑会损害我们的道德品质所以我们需要对它进行道德考虑。康德也没有说我们需要对狗作道德考虑。

讨论后的小总结

有待论证的观点:人类需要对AI进行道德考虑。

没有从AI的角度加以论证-诸如对AI进行道德考虑是因为AI具有主体性或自我意识?

而是从人的角度加以论证,即对AI进行道德考虑是因为如果不对其进行道德考虑的话会损害我们的道德品质。← 对康德的论证的类比:对狗进行道德考虑的话是因为如果射杀狗的话会损害我们的道德品质。

这个论证的问题在于,这种类比能否成立?狗是有生命的,AI是无生命的。
✨如果变化一下康德的说法:“伤害X是错误的,不是因为伤害X违反了对X的任何义务,而是因为伤害X的人损害了他自身善良的品质,而这种品质是他履行对人类的义务时应该发挥的。” X指代什么的时候这种说法能够成立?
X需同时满足两个条件:1、我们对X没有不伤害的义务。2、伤害X会损害我们自身的善良品质。

×人(我们对人有不伤害的义务)

√ 狗(我们对狗没有“不伤害它的义务”且伤害狗会损害我们的善良品质)

√ AI(我们对AI没有“不伤害它的义务”,且伤害AI会损害我们的善良品质)

× 洗衣机(我们对洗衣机没有“不拆解的义务”但拆解洗衣机不会损害我们的善良品质)

AI的道德责任归属问题

在《尼各马可伦理学》中,道德责任有两个条件:

1、如果你能做出决定,具有行为能力,对世界和他人产生了影响,你就应该为自己的行为负责。

2、如果你知道自己正在做什么,并知道可能产生的后果,你就有责任。

→如果AI被赋予了更多的代理权,接管了人类过去要做的事情,那么我们应该如何归属道德责任呢?

AI可以做出具有道德后果的决定和采取具有道德后果的行动,但它不知道自己在做什么。[不满足条件2]→AI不能为自己的行为承担道德责任。→人类需要为机器的行为负责。

→但“人类需要为机器的行为负责”的方案面临一些问题:

1、AI系统可能会非常迅速地做出决定和行动,例如在高频交易或自动驾驶汽车中,给人做出最终决定或进行干预的时间太多,人如何为这种行为和决定负责呢?


2、人工智能是有历史的,当人工智能在特定的应用背景下做事时,可能就不再清楚是谁创造了它,谁先使用了它,以及责任如何在这些不同的相关方之间分配。

以自动驾驶汽车为例:其涉及人员有程序员、司机、汽车公司所有者、道路上的其他用户等。2018年3月,一辆UBER自动驾驶汽车在亚利桑那州发生事故,导致一名行人死亡。谁该为这一悲惨结果负责?汽车编程人员、汽车公司负责产品开发的人、Uber、汽车用户、行人、监管部门等?谁该负责并不明确。→也许责任不能也不应该归咎于一个人,那又应该如何分配责任呢?

3、从技术系统由许多相关关联的元素组成的意义上来说,也有许多东西-有人工智能算法,同时这种算法与传感器互动,使用各种数据,并与各种硬件和软件互动。所有这些东西都有历史,都与编程或生产它们的人有关。当出现问题时,并不总是很清楚是“人工智能”导致了问题, 还是系统的其他组件导致了问题,甚至不清楚人工智能在哪里结束,技术的其他部分在哪里开始。这也使得责任的归属和分配变得困难。


4、责任的第二个条件-认识论条件-指要负起责任,就必须知道自己在做什么。

    就人类而言,我们希望某人能够解释她所做的事情或决定。因此,责任意味着可回答和可解释。如果出了问题,我们希望得到答复和解释。例如,我们会要求法官解释她的决定,或者我们会问罪犯为什么要这样做。

        →应用到人工智能上
首先,当今的人工智能并不知道自己在做什么。
其次,如果人类要对人工智能的行为负责,人类需要知道人工智能在做什么。
然而,问题是,通常情况下,程序员和用户都知道他们想用人工智能做什么,或者更准确地说,他们知道他们想让人工智能为他们做什么。他们知道目标、目的,也知道技术的一般工作原理。但是,他们并不总是确切地知道人工智能在做什么(在任何时刻),也不能总是解释它做了什么或它是如何做出决定的。
      →这就涉及到了透明度和可解释性的问题:
1、对于某些人工智能系统[比如 决策树]来说,人工智能做出决定的方式是明确的、透明的;在特定的输入条件下,人工智能的编程方式决定了它的决策。→人类可以解释人工智能是如何做出决策的,也可以要求人工智能解释它的决定。→人类可以对其决策负责。
2、对于其他一些人工智能系统,在使用机器学习的人工智能中其决定是不透明的,[尤其是使用神经网络的深度学习]例如,基于深度学习的“深蓝”,程序员知道它如何运作,但机器得出特定棋步的精确方式并不透明,也无法解释。→创造或使用该人工智能的人类无法解释某个特定的决定,不知道人工智能在做什么,→人类无法对其行为负责。
→AI的道德责任归属问题似乎是一个难以解决的难题。
阅读 272
文章由 美篇工作版 编辑制作
投诉