ror平台_(ror官方网)_网站
咨询热线:400-066-2698
ror平台网站
人工智能如何“德才兼备”
人工智能如何“德才兼备” 时间: 2023-12-19 07:44:56 |   作者: ror平台

  1956年夏季,当一批年轻的科学家首次提出“人工智能”这一术语,想必他们是激动的。在经过了缓慢发展的一段时间后,得益于大数据驱动、硬件技术的持续不断的发展、计算能力的提升、深度学习算法等带来的数据智能和感知智能上的突破,近些年人工智能得以快速发展。

  “在人工智能的发展和应用中,伦理必须占据中心地位。”今年4月,英国上议院出了一份长达183页的报告《AI在英国:充分准备、意愿积极、能力爆棚?》,不仅说了AI在英国的发展,更聚焦于伦理道德问题那些AI可能为人类带来的风险。

  在机器人原则与伦理标准方面,日本、韩国、英国、欧洲和联合国教科文组织等相继推出了多项伦理原则、规范、指南和标准。

  2016年,联合国教科文组织发布了《机器人伦理报告初步草案》,草案不仅探讨了社会、医疗、健康、军事、监控、工作中的机器人伦理问题,最后还对运用机器伦理制造道德机器进行了讨论。

  2016年至2017年,电气电子工程师协会(IEEE)颁布了《人工智能设计的伦理准则》的第一版和第二版。

  无疑,人们在探讨人工智能带来的伦理问题的同时,还在思考怎么样才可以解决这些伦理问题,尽管离处理问题还有些距离。

  今年5月,滴滴顺风车司机杀害女乘客事件发生后,有网友爆出,滴滴顺风车司机通过平台软件,在接单前能够正常的看到以前司机对乘客的全部评价,而这些评价中就包括对女性乘客外貌的评价。这是因为平台软件上增加了社交功能。

  今年2月,《》英文网站发表了一篇文章,指出如今非常热门的AI应用人脸识别,针对不一样的种族的准确率差异巨大。这让大家意识到,AI系统确实有几率存在偏见。

  人工智能带来的文化偏见的例子还有很多,如词语“女性”“妇女”与艺术人文类职业以及家庭联系更紧密,词语“男性”“男人”则和数学、工程类职业更近。尤为危险的是,AI还有强化所习得的偏见的潜能,它们不像人可以有意识地去偏见。

  不用说,当下时不时就会看到人工智能的新闻,且多是对我们正常的生活已造成或者会造成负面影响的消息。又比如这两天在国内出现的手机任意调动摄像头事件,人们震惊于原来有的手机会自动把摄像头打开。

  美国耶鲁大学教授温德尔瓦拉赫在接受《中国科学报》记者正常采访时表示,AI是一种认知技术,是区别于过去的技术发展。过去的技术发展确实能取代一部分人类的劳动,但通常不包括人类的精神活动。而AI可能会在更广泛的领域内取代人类的工作。

  技术带来的伦理问题本质上是相同的。但随着新技术的发展,这样一些问题会以新的形式出现。这里不仅包括人工智能,也包含别的新兴技术。“但不同的是,人工智能不仅仅是一个特定的应用,或者一组应用,它是一项几乎能应用于生活的每一个方面的技术。”

  “人工智能和包括机器人在内的智能化自动系统的普遍应用,不单单是一场结果未知的开放性的科学技术创新,更将是人类文明史上影响至为深远的社会伦理试验。”中国社会科学院研究员段伟文近些年致力于人工智能的伦理研究,他表达了自己的担忧。

  对于上文提到滴滴顺风车司机杀害女乘客事件,段伟文给《中国科学报》记者分析,作为共享交通平台,它的目标是安全快捷地把乘客送达目的地,现在为了达到商业上的利益最大化,增加了社交软件,却没有考虑到那些女乘客以及潜在受害者的利益。这就涉及到伦理问题。“通过对司机、乘客和平台的利益分析和价值分析,发现其实包含了对各方的利害得失与价值冲突。”

  如果说AI对人类的威胁是终极问题,怎么样才能解决还未可知,那么AI在当下活动中反映出来的伦理问题就亟待解决了。

  段伟文认为,应当从我们这些年研究科学技术前沿中的、科学技术应用中遇到的实例,去探讨人工智能的伦理问题。“从这个方面,我更愿意把它当作未完成的伦理。”

  与以往不同,人工智能伦理研究不再是一个高高在上的理论,也没有一套适用全部情形的普遍原则体系,更多的是针对具体的人类活动或者科技实践的原则体系,比如说,陪护机器人,就需要一些防止过度依赖机器人的原则。

  “从里面找到一些价值冲突,需要作哪些伦理的决择,让我们得知问题、研究问题。”段伟文说。

  另外,当下的社会中,大数据让人们享受了便捷,同时这一些数据会受到不良的使用,或者是没有必要的滥用。而由于大数据的挖掘导致商业智能的运用对人的权利的侵犯,这种侵犯最核心一点就是人的自主权,包括隐私。

  因此,欧盟数据保护条例中,针对保护个人数据的态度很强硬,只要能够识别是个人的,就是个人数据,而且个人能决定他的数据怎么使用、该不该使用,以及对有些数据要求被遗忘、数据可携带等。

  “让技术在社会上更好地运行,就要从伦理上对它进行设计。”段伟文说,比如现在经常提到监控装置对人的隐私的伤害,将来可以让使用者看到摄像头的界面,让人们在某些特定的程度上清楚自己的数据如何被追踪和使用;这样既可以促使数据追踪者规范其行为,更有助于被追踪对象适当修正其行为方式。“这是数据时代、信息时代一个新的信息对称的问题,让不对称变对称一点,寻求一种再平衡。”

  美国著名科幻作家阿西莫夫曾在他的小说中提到“机器人学三定律”。以往人们更关注其内容,而忽视了“机器人学三定律”如何在真实的操作中来规范机器人的行为。

  其实阿西莫夫有很详细的构想,通过技术直接嵌入到机器人的控制系统软件或智能编码底层,令“机器人学三定律”不只是纸上法则,更可经由技术强制执行通过内置的“机器道德调节器”使机器人成为有道德的机器人。

  如何解决人工智能的伦理问题,这是一个科学家、哲学家以及相关领域的研究者都不可以忽视的问题。让机器人有道德或许不是科幻呢?

  温德尔瓦拉赫和认知哲学家科林艾伦在10年前共同完成了《道德机器:如何让机器人明辨是非》一书。他们对能否让机器有道德进行了研究。温德尔瓦拉赫是耶鲁大学生物伦理学跨学科研究中心主管,曾开过“机器人的道德和人的伦理”的课程。

  科林艾伦1999年涉足这样的领域,他还曾任《斯坦福哲学百科全书》全球最大的电子哲学词典的首席技术官,指导研发人员,使他同时在哲学和计算机这两个领域皆有深刻的理解。

  2002年,他们在德国巴登巴登召开的一次会议上相识,因共同的学术兴趣,两人开始研究人工道德智能体的技术层面的伦理问题。2008年2月完成了本书,2009年英文版出版。

  两位学者在书中提出要设计出符合人类道德规范的机器人。这个听起来是不大可能实现的目标。他们也认为,完备的机器道德智能体还很遥远,但是目前有必要,而且有可能开始建构一种功能性道德,从而使人工道德智能体可具有基本的道德敏感性。

  例如,对于前面提到的语言上的偏见,艾伦觉得应考虑的是,“如何在设计理解语言的算法时既让其消除偏见,又不丧失其对语言的解释能力”。

  两位学者进行了开创性的研究,并提出了解决方案的三条路径:一是自上而下,就是把人类已经很成熟的伦理系统、道德理论体系灌输进去,即理论驱动作决策;二是自下而上式的数据驱动的学习和进化的方式;三是混合进路系统,即将前两种结合起来,使人工智能体在一定的普遍伦理准则指引下、通过深度学习算法,在与人类的互动中逐渐完备其伦理系统。

  西安交通大学计算哲学实验室中方主任、本书主译王小红向《中国科学报》记者介绍,《道德机器》的两位作者的讨论是基于哲学家、科学哲学家、技术伦理学家在交叉领域的深入思考和研究,没有停留在形而上的讨论上,而是提出了可行性方案让这种自动控制系统机器人有道德的能力。“特别有预见性和超前意识,在10年前就考虑从前端来处理问题。”

  王小红进一步解释,从前端将伦理算法嵌入机器,并不意味着着其他的社会控制不需要,因为不可能把所有的实际社会场景、生活难题都预测到,后来遇到了还能够最终靠其他规范去制约。所以,她认为,前端嵌入和后端制约应该是齐头并进的。

  像所有开放的和影响深远的人类活动一样,人工智能的持续不断的发展和加速进步使人们很难明确界定其内涵。同样的,人工智能的伦理也没有相对严格的定义和界限。

  一是面向应用场景的描述性研究;二是凸显主体责任的责任伦理研究;三是基于主体权利的权利伦理研究;四是探讨伦理嵌入的机器伦理研究。

  段伟文解释说,第四种相当于温德尔瓦拉赫和科林艾伦的探讨,因此说,怎么让机器有道德,是前瞻性的探讨,也是现在讨论的一部分。尽管此进路已有一些探索,但在技术上存在极大困难,理论上也遭遇难以解决的道德困境。

  “阿西莫夫所提出的机器人定律可能未必有实质的意义,但其真正的价值可能更多地在于观念上的超前与突破。”段伟文说,机器人三定律带来的启迪是:为了使人所创造的机器人和人工智能有益人类和免于失控,应致力于从人类价值、利益、安全以及未来发展的角度对其加以价值校准与伦理调适,以此消除人们对其终极创造物的疑虑。

  人工智能的伦理问题要走的路还有非常长。“它其实就是一个改变历史的转折点,而不单单是对过去问题的简单延续。”温德尔瓦拉赫表示,而且这项研究几乎所有的学科都涵盖在内,如神经科学、经济学、心理学、哲学等。“需要仔细考虑的是,哪几个方面会影响人类进行决策,以及它们是怎么样影响人类决策的。”

  尽管人工智能的问题很多,但不能像限制直接对人类造成了严重的伤害的技术那样限制人工智能的发展,因为没人会怀疑,如果现在限制了,未来的10年、30年或50年之后,人们又不得不回过头来重新开始发展这些技术。

  在温德尔瓦拉赫和科林艾伦看来,解决终极的人工智能伦理问题还很遥远,但需要朝着这个方向走,而且,他们有关“道德机器”的观点依然非常领先,甚至更具现代化,可作为人们反思这样一些问题的基础。(张亚茹对本文亦有贡献)