据国外媒体报道,日前斯坦福大学成立以人为本人工智能研究所(HAI)。记者采访了该机构联合主管李飞飞,其谈到了人工智能对我们日常生活的影响、透明度的相关需求以及人类监督的重要作用。
斯坦福大学计算机科学教授李飞飞一直担心人工智能的发展会缺乏多样性。今天,这位开创性的人工智能研究人员将经济学家、哲学家、伦理学家、法律学者、历史学家、心理学家,甚至艺术家聚集在一起,共同开发人工智能技术和应用。
当地时间周一,斯坦福大学成立了以人为本的人工智能研究所(Institute for Human-Centered Artificial Intelligence, HAI)。这是一个跨学科的研究中心,拥有来自各个领域的专家。李飞飞表示,“研究表明,当不同群体的人合作处理任何问题时,解决方案都更具创新性。”李飞飞与哲学教授、斯坦福大学前教务长约翰·埃齐门第(John Etchemendy)共同出任HAI联合主管。
据了解,该机构致力于评估智能机器对人类生活的影响,包括自动化导致的工作不安全感、算法中存在的性别和种族偏见以及由此引发的不平等现象,以及医疗、教育和司法系统中的人工智能对人类的影响。李飞飞说,HAI的目标是让智能机器“更以人为本,更加仁慈,帮助我们人类解决一些大的问题。”
李飞飞曾担任斯坦福大学人工智能实验室主任、谷歌副总裁,谷歌云服务Google Cloud的人工智能和机器学习首席科学家。在接受采访时,她谈到了人工智能对我们日常生活的影响、透明度的相关需求以及人类监督的重要作用。
问:您谈到了人工智能的跨学科研究方法。社会科学家、历史学家、艺术家、律师和哲学家如何帮助开发更好的人工智能应用程序?
李飞飞:这是我非常珍视的东西,也是斯坦福大学HAI的本质所在。这种方法绝对至关重要。人文主义者、社会科学家、经济学家、哲学家,伦理学家,法律学者、历史学家、心理学家和认知科学家将以前所未有的方式推动未来人工智能的发展。无论是将人工智能技术提升到新的水平还是理解人工智能的社会影响,亦或是人工智能的社会同理心、相应的政策和法律监管都是如此。现在是时候让更多社会科学家和人文主义者参与人工智能研究。
问:您即将启动的新研究所由学者和各行各业的专家组成。这个社区的未来是什么样的?
李飞飞:领导这个机构的是斯坦福大学的教师,而其中最重要的工作人员是研究人员和学生。这是一个包容性很强的机构,旨在成为一个全球中心,让人们关注包括技术、社会伦理以及政策在内的人工智能方方面面。
问:关于机器学习和人工智能的进步是否会继续,已经有很多讨论。还会有另一个关于人工智能的冬天吗?你认为人工智能研究的方向是什么?
李飞飞:作为一名从事这项工作已经有20年的科学家,我对人工智能研究的看法与公众截然不同。我不认为还会有冬天,主要原因是:人们常常说人工智能的上一个冬天是在上世纪90年代和21世纪初,当时我刚刚开始攻读人工智能博士学位。事后看来,这恰恰是人工智能研究中最多产、具创新性的时期。我们今天看到的一切都来自于上世纪70年代、80年代和90年代的积累研究。所以作为一名研究人员和教授,我很难认同对冬天或春天的描述,因为对我来说,科学研究并不是这样的。
问:我想转换到一个稍微不同的主题:人工智能的透明度。在未来,许多甚至大多数决策将由人工智能系统做出,而这些系统不一定都由人类来分析。我们如何建立信任?我们如何让公众了解人工智能和技术的发展?
李飞飞:我认为有很多工作要做。建立信任是一项涉及多方的努力。我认为教育从中起着巨大的作用。我认为这个责任落在学术界,落在技术公司,落在每个人身上。此外作为一名技术专家,我对你所谓每一个决策都应该由机器做出的观点不敢苟同。在一些关键的应用中,人类应该始终参与决策之中。我想到医疗保健就是如此。过去的7年里,我与医学专家、临床医生和研究人员一起在一家医院里观察医疗保健的不同方面,并思考机器在其中起的作用。我在人工智能和医疗保健方面了解得越多,我就越坚信,归根结底这是关于人类关爱人类的事情。机器的存在只是为了增加人文关怀,提供更多信息,提高诊疗准确性。但它们并不一定要站在每一个决定的前沿。
问:您是否认为我们高估或者低估了人工智能对我们日常生活和社会的影响?
李飞飞:对我来说,一个更重要的问题是:我们是否以有效的方式理解和预测人工智能的影响?我看到每个行业都在受到人工智能技术的影响和改造。如果观察一下我所非常关心的医疗保健,就会谈到人工智能的诊断能力,比如说它判读X射线的能力,甚至涉及取代放射学的相关讨论。我提倡的是去观察人工智能的巨大潜力,以提高临床医生的工作,提高他们的日常工作效率,为病人建立更多的安全感,与患者建立更多的联系。这才是关于人工智能的真正影响以及我们如何理解它们的本质所在。我们如何预测它们,如何引导它们?
问:计算机和数据科学专业的大部分学生都是男性。是否有一些最佳实践方法可以为人工智能领域带来更多的多样性、更多的性别平衡?
李飞飞:人工智能的未来取决于开发它的人、指导它的人、领导它的人、实践它的人。所以这里的重点是人。自2015年以来,斯坦福大学一直在努力创造一种更加多元化、更具包容性的文化,在培养多样化的人工智能领导者方面尤为如此。我视为非常重要的一个项目是AI4ALL,它始于斯坦福大学,现在是一个全国性的非营利组织。2019年,它将为北美的10所大学和300多名参加夏令营的高中生提供服务。今年夏天,他们将通过这些训练营学习以人为本的人工智能及其基础、应用和技术。
问:人工智能缺乏多样性的风险是什么?你能告诉我算法偏见带来的相关风险以及系统开发的风险吗?
李飞飞:你不需要总拿人工智能举例。长期以来,医学的临床研究主要针对男性。我们所开发的药物对女性的作用就没有那么好。或者,如果研究的重点是某个特定的族群,那么药物对其他族群就没有作用。当你开发出一项缺乏多样性和代表性的技术时,你就不可能为大多数人服务。这就带来了偏见,带来了文化上的麻木不仁,带来了我们都不认同的价值观。
相关阅读: