人工智能:人工智能:伦理与社会挑战》是一门为期四周的课程,旨在探讨人工智能技术(AI)日益广泛的应用所涉及的伦理和社会问题。该课程旨在提高人们对人工智能的伦理和社会方面的认识,并激发人们思考和讨论在社会中使用人工智能的影响。
该课程由四个模块组成,每个模块的非全日制学习时间约为一周。一个模块包括若干讲座和阅读。每节课结束后都有一项必修作业,即写一篇简短的总结,概括你从这节课中获得的最重要的新知识/新见解,并回顾其他学生/学员写的课程总结。这些评估旨在鼓励学习,并激发对社会中使用人工智能的伦理和社会问题的思考。参与论坛讨论是自愿的,但强烈建议参与。 在第一单元中,我们将讨论算法偏见和监控。算法真的是纯逻辑的、没有人类偏见的吗,还是它们和我们一样有偏见?人工智能在很多方面使监控更加有效,但如果我们越来越多地受到越来越复杂的监视,这对我们意味着什么? 接下来,我们将谈谈人工智能对民主的影响。我们将讨论为什么民主很重要,以及人工智能会如何阻碍公众的民主讨论,但也会讨论它如何帮助改善民主。例如,我们将讨论社交媒体如何落入专制政权之手,并就如何利用人工智能工具发展民主功能提出一些想法。 另一个伦理问题涉及我们对待人工智能的态度是否会影响到人工智能本身。人工智能是否有意识?我们所说的 "有意识 "是什么意思?意识与智能之间的关系是什么?这是课程第三周的主题。 在最后一个单元,我们将讨论责任与控制。如果一辆自动驾驶汽车撞上了一个自动驾驶机器人,谁该为此负责?谁有责任确保人工智能以安全和民主的方式发展? 本课程的最后一个问题,或许也是我们人类的终极问题,就是如何控制比我们更聪明的机器。我们的智慧赋予了我们对所处世界的控制权。我们真的应该把这种权力交给机器吗?如果我们这样做了,我们该如何继续掌控它? 在课程结束时,您将 - 基本了解人工智能的偏见现象和人工智能在监控中的作用, - 基本了解与人工智能相关的民主的重要性,并熟悉与人工智能相关的民主的常见问题, - 了解 "智能 "和 "意识 "概念的复杂性,并熟悉创造人工意识的常见方法、 - 对 "前瞻性 "和 "后瞻性责任 "概念的基本理解,并熟悉将这些概念应用于人工智能的相关问题, - 对人工智能中的控制问题的基本理解,并熟悉通常讨论的解决这一问题的方法, - 讨论和思考这些问题的伦理和社会方面的能力。