CCAI 2020 | 探秘AI的未来:对话Yolanda Gil

ぐ巨炮叔叔 提交于 2020-08-06 12:14:50

  

CCAI 2020年8月29日-30日

  2020年中国人工智能大会(Chinese Congress on Artificial Intelligence 2020,简称“CCAI 2020”)将于8月29日-30日在南京召开。CCAI 2020以“智周万物”为主题,探讨人工智能作为引领未来的战略性技术,如何以周知万物的学术境界赋能未来,带动时代发展,实现互联世界的远大理想。

  人工智能促进会现任主席,南加州大学信息科学研究所科研副主任Yolanda Gil将出席本次大会作主题演讲。

  Yolanda Gil:计算机科学系和空间研究所教授,南加州大学信息科学研究所(ISI)智能系统部门研究的副部门主任。毕业于卡内基梅隆大学,曾在美国国家科学基金会计算机科学与工程理事会咨询委员会任职。美国计算机协会(ACM)会士。美国人工智能协会(AAAI)会士,并曾于2016年当选为人工智能促进协会主席。

  在本次对话中,AAAI主席Yolanda Gil讨论了如何在不牺牲安全性的前提下推动AI发展的方法。我们与Gil谈到了AI在当今的意义,未来将如何构建更加智能的AI以及如何确保AI技术发展过程中的安全性。为方便阅读,已对本次访谈内容进行了删减和编辑。

  您为什么要与计算社区联盟(Computing Community Consortium)一起开展AI路线图工作?

  AI系统从长远来看将变得更加智能,我们想要强调的是这一进程所需的要素。看看Siri和Alexa之类的对话界面,直至今日,这些AI系统仍然有很多缺陷。我们要如何使这些AI系统更加了解我们的世界呢?例如,理解“母亲是什么?”和“为什么要提醒我妈妈的生日很重要?”这些就是我们提出的问题。

  我们想要了解AI系统的发展还需要进行哪方面的研究,这些系统包括对话界面,自动驾驶汽车,机器人等等。如果我们不对长期研究进行投资,下一代系统还是不能了解周遭的世界,更不能更好地完成自己的任务。

  对您来说,在2019年“人工智能”这个词意味着什么?

  人工智能实际上是在研究和创建那些通常与智能行为相关联的功能。这些功能往往与头脑、智力和思想有关,而不是一些更小规模的反应性行为。
当我们谈到智能时,我们考察的是以下几个方面:思考、推理和学习的能力,管理周遭环境的信息,以及处理复杂任务。比如说,某人能不能从经验和范例中学到什么?他能不能通过观察其他人学到什么?他能从自己的错误中学到什么?当其他人为他解释事物的原理后,他能从中学到什么?
学习只是人工智能的一方面,其他方面包括推理,计划和组织等等。然后,AI还有一些部分与自然语言和交流有关,而其他部分与机器人技术有关。
因此,AI技术研究包含了许多不同的智能行为。我们周围已经有很多AI系统了,现在关键的问题是:我们要如何提升它们,使它们进入“下一代智能”的范畴?


  AI研究人员真的在尝试模仿人类的思想吗?还是说机器智能与人类的智能是两码事?

  许多研究将人类行为视为AI的灵感或目标,尝试对人类智力和人类行为建模也只是整个研究领域的一部分。
许多像我一样的研究者正在研究人类行为,并从中得到启发来创建或设计会“思考”的机器,但是我们没有考虑人类记忆的工作方式,也没有考虑认知实验得出的有关人类思想、生物特性以及大脑的结论。我们更多地采取了工程上的方法。
AI在两者上皆有涉及。因此,人们将拥有真正受到人类启发的认知系统,这种系统处理智能任务的方式与人类十分接近。例如,有些机器人在外观上与人类十分相似,但是还有许多其他机器人仅仅执行人类的任务,要知道,它们的外观其实并不重要。有关这两个领域的研究都在取得进展。

  在当前的AI研究中,什么令您印象最为深刻?

  一些AI系统在诸如医学等科学领域中得到了重要的应用,并取得了极大的成功,这让我感到非常激动。人工智能系统已经在医学中使用了数十年,这些系统非常复杂,构建起来十分耗时,而且性能也差强人意。我认为现在AI系统渗透进了医学的新领域。例如,AI系统非常擅长通过病理图像识别肿瘤或某些类型的细胞。

  您认为现在AI的发展还需要克服哪些重大挑战?

  第一项重大挑战是集成智能功能。例如,现在人们拥有扫地机器人,智能语音系统,但是很难将这些单独的功能继承在一起协同工作。

  第二个挑战则是交流:AI如何与人类联系并传递信息。如今,我们可以与AI系统进行交谈,但是这些对话中不含有任何利害关系,即使理解出现偏差也可以被接受。我们希望取得理想结果,但如果失败了也没有太大关系。但是,如果有一天我们真的需要理想结果时,又该怎么办?

  第三个挑战是自主学习,例如,如何让AI产生这样的想法:“我不应该使用所学的知识,因为我还没有看过足够的例子”或者“我已经看过几个例子了,我应该用新方法对它们进行分析,这样我才能从中获取更多的信息。”然而,目前我们还没有能够做到这一点的系统。

  这些问题为AI未来20年的发展设置了充满激情和野心的议程。

  为了使AI研究取得更大的进步,必须改变什么?

  我们需要对许多大学的AI基础课程体系进行扩展。我们需要迈入一个新时代,在这个时代中,关于AI问题的学术合作会越来越多,硬件、数据资源和开放软件工具包等资源也会越来越丰富。
作为灵感,我们提到了曾经在世界范围产生重大影响的、耗资数十亿美元的大型项目——人类基因组计划和LIGO项目。前者推动了基因学领域的发展,后者发起了引力波的实验观察。我们的意思是,除非我们对AI的投资也达到了那种水平,否则要花很长时间才能实现更高级别的AI功能。
美国有许多出色的研究人员和最好的大学。我认为我们需要像过去一样继续支持各个独立研究项目,而且我们还需要耗费更大的努力来增加一个重要的新层面。这就是为什么建议创建划时代,多大学合作的研究中心的原因,这些研究中心将负责处理重大问题并致力于构建针对特定问题的大型组织。

  在接下来的20年里,您对什么感到最兴奋?

  我认为AI在科研探索方面的应用可以真正地改变世界,这也是我的研究焦点。我们想用机器可理解的方式来表示科学知识,并且将AI系统集成在研究过程中,但我们还面临着许多挑战。因此,我非常希望能够赋予科学家更好的工具。我的梦想是,在20年后,一名科学家早上来到办公室时,AI系统将向他汇报昨晚他不在时系统所完成的工作。探索发现的速度将会大大提高,例如找到疾病的治疗方法,以及管理自然水资源等等。

  前路看起来令人十分兴奋,但是我们要如何确保在AI向前发展时,人类不会被落下?

  我们需要确保每个人都有公平的机会来使用这项技术。我们需要从幼儿园阶段就开始一路推广AI,直到大学为止,这样做可以使孩子们有机会了解这项技术会如何影响他们的生活。

  我们认为AI工程师这份职业并不只能在获得博士学位之后才能从事,学生们在获得学士学位,高中文凭后都可以尝试与AI相关的职业。我们需要技术人员来修理机器人,为AI系统准备数据以及在新的应用领域中使用AI工具。

  人们对AI的顾虑是否合理?

  我认为我们必须认识到,在现实生活中,当AI被部署在特定部门中时,会给安全性,信任和道德带来新的挑战。但是,我首先会对部署和操作AI系统的人员产生顾虑,而不是对AI系统本身。这就是为什么我希望有关机构能够出台更多关于AI伦理方面的政策。

  如今,许多AI部署都没有经过特定的安全和伦理思考阶段。因此,我认为我们应该在此方面进行更多的投资。我们建议了创建关于AI伦理和安全的新学位和新职业。

  https://viterbischool.usc.edu/news/2019/09/glimpsing-into-the-future-of-ai-a-conversation-with-yolanda-gil/

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!