今年高考即将结束,已经有不少人开始关注起高考报名哪些专业。

  数据显示,2020年十大热搜专业为人工智能、机器人工程、电子商务、物联网工程等。可见,人工智能已经成为当下潮流。有人在社交媒体上提出疑问:人工智能是否会淘汰大量劳动力?人工智能取代人类的日子还会远吗?

  上述情况距离真正实现的日子或许还有相当长的一段时间。实际上,相比现有的人工智能系统,人脑在识别物体时一学就会,功耗还很低,人工智能的进化方向之一也正是学习人脑,被称为“类脑研究”。南都记者就相关问题采访了中科院自动化研究所研究员、模式识别国家重点实验室副主任余山。

 

  为何人脑在识别物体时一学就会?

  南都:为何当前的人工智能功耗非常高,而人脑功耗却只有20瓦左右?现在是否有何解决思路或方法? 

  余山:一个重要原因是,当前的计算机硬件结构是冯诺依曼架构,存在计算单元和存贮单元的分离,计算时需要在这两个单元间频繁移动大量的数据,造成能耗上升。而人脑中的神经网络并不存在计算单元和存贮单元的分离,是一个“存算一体”的结构,这大大降低了能耗。现在有一些新的硬件设计,比如神经形态芯片,借鉴了人脑的“存算一体”结构,就在这一方向上取得了积极的进展。

  南都:为什么人工智能需要被输入大量的数据,进行不断的训练,才能识别物体或者声音等等,而人脑却在大多时候一学就会,且更加先进? 

  余山:因为人工智能在大部分情况下是从头开始学习,而人脑在面临一个新问题的时候,已经具有了非常庞大的知识储备,或称为先验知识,这些知识一类是我们的祖先在漫长的进化岁月中通过大量的数据学到的,编码在了人类的基因中,并在大脑的发育过程中转化为神经网络的结构,另一类则是我们在个体成长的过程中不断积累获得的。

  这两类知识构成了强有力的“归纳偏置”(inductive bias)——当遭遇从未遇到的情况时,大脑会根据此前获得的知识作出一些假设,使得后续的学习能力大大加快。比如人脑有关于三维空间的知识,可以从一个平面照片中恢复其三维结构;有强大的记忆和联想能力,能从图片联想到某类物体的用途,以及以前接触类似物体的经历等等,这些先验知识是人脑在面临新类别学习时所具有的优势,也对于类脑计算有重要的启发。

  另外,目前神经网络训练大多是被动地接收单一维度的信息,比如就看某个角度的图片。而人类学习新的类别往往是一个主动参与的过程,可以从不同角度观察,可以感觉质地、重量、听到敲打它的声音,等等。这样的互动形式能获取更加丰富的多模态的输入信息,从而加快学习。

  南都:你曾研究发现,由于缺乏连续学习能力和情境依赖学习能力,深度神经网络与大脑相比存在很大差距,请问为何深度神经网络会难以在学习新知识的同时保留旧知识,而人脑却不会出现这种情况? 

  余山:神经网络学习到的知识是分布式地保存在网络权重中。在学习新任务时,需要进行网络权重的调整,这个过程可能“抹去”原来学会的知识,就会出现“灾难性遗忘”问题。

  人脑则可能有一系列的办法来缓解这个问题。比如神经科学家通过实验发现,人类学习一个任务后,对于这个任务比较重要的权重会被“保护”起来,后续学习不再进行调整。另外,大脑可能记住了旧任务的训练样本,可以通过“复习”来克服遗忘。这些机制曾启发了一系列的连续学习算法。但是我们目前对于大脑克服“灾难性遗忘”的机制了解才刚刚开始,还有很多未知。

  南都:人类的情境依赖学习能力又是从何而来?是如何能对实际环境中存在情境信息(比如自身状态、环境变化等)做出灵活的响应。 

  余山:人类的情境化信息处理能力依赖于前额叶皮层,这一脑区接收丰富的内外环境信号输入,可以根据当前的情境,灵活地调控从感觉输入到运动反应的映射,从而指挥我们“随机应变”。

  为何自动驾驶车辆会识别不出横穿马路的行人?

  南都:人工智能界的一大难题是算法的不可解释性,你认为类脑研究是否也存在这一“不可解释性”难题?如何解决? 

  余山:很多时候我们所说的“理解”依赖于一系列的概念和他们之间的逻辑关系,这些概念在我们脑内有明确的表征。所有人都建立类似的概念和逻辑结构,我们就可以通过语言向他人“解释”当前脑中正在执行的某些计算。

  增加人工智能算法可解释性,就需要发展新的网络架构和训练方式,在网络中加入概念、逻辑的表征,而且这些概念和逻辑与我们人类所理解的有对应关系,这样才有可能以人能理解的方式解释算法运行的结果。

  同时,我们也应该注意到,并不是所有的复杂计算都是可解释的,人类自身的很多行为,比如知觉、运动技能常常也不可解释,甚至高等认知功能,比如抉择,都不是完全可解释的,这往往被称为”直觉”。对此心理学、认知科学已经有大量证据。所以,我认为深入研究大脑计算可解释性的机制及其边界,能够对于人工智能的可解释性带来重要启发。

  南都:此前发生过多起自动驾驶车辆撞车事件,比如在Uber事故中,自动驾驶系统无法识别出横穿马路的行人,只因当事人不在斑马线上,系统无法识别出她是人,这暴露了Uber的设计缺陷——在斑马线上的行人才会被系统识别成人。你认为类脑研究能如何促进自动驾驶的发展? 

  余山:上述情况是因为,如果仅仅训练识别任务,而训练样本中的行人都是出现在斑马线上的,那斑马线就会作为行人的必要特征被神经网络学会。当前以深度网络为基础的视觉系统往往通过端到端的有监督方式(注:需要人工标注训练样本)进行训练,这容易出现对于检测、识别等任务的过拟合,导致系统在实验室状态下效果良好,但在现实生活中遇到更多未知问题时,效果变差,即系统对于其他视觉任务泛化能力不足。

  类脑研究则有可能启发新一代的计算机视觉系统。人的视觉系统不是一个单独运行的系统,它与其他信息处理模块有紧密的联系,包括我们的常识。比如常识告诉我们人是可以出现在斑马线之外的,或者在路上的大物体即使不是人也需要注意。在另外一个著名的自动驾驶事故中,系统将路上的白色货车识别成云朵从而造成碰撞,而常识会告诉我们云朵不会是规则的方形。

  所以,人类视觉系统非监督或自监督的发育、成熟过程,以及大脑信息的多模块融合处理等特点都会对于实现能力更强、更可靠的自动驾驶系统有启示。

  利用类脑研究研发出来的人工智能,是否会在有一天超越人脑? 

  南都:你认为,利用类脑研究研发出来的人工智能,是否会在有一天超越人脑?这是否会存在何种伦理问题?比如大量基层劳动者被淘汰等等。 

  余山:我相信类脑研究和其他人工智能研究方法的结合将在未来创造出超越人脑的智能。这将为人类带来前所未有的新的机遇,但同时也会带来伦理、安全等方面的挑战,需要尽早加以研究和应对。这个过程不会一蹴而就,但是它的影响也不会等到人工智能超越人脑的时候才会显现出来,所以需要在整个过程中加以防范、化解和应对。

  南都:目前的类脑研究有什么难以突破的难点?与“脑机接口”研究是否属于两种不同方向的发展?你如何看待“脑机接口”? 

  余山:类脑研究作为新兴的交叉研究领域,有广阔的发展空间,但要真正推动领域的发展,需要更多对于脑科学和人工智能都有深入了解的研究人员。过去这两个领域的知识和技能培养是分离的,不利于交叉学科人才的成长。今后需要从研究生、甚至本科生开始尝试创新的人才培养方式。非常欢迎有志于创造新一代人工智能的同学投身于类脑研究,抓住这一方向快速发展的机会窗口,努力学习和钻研。你们毕业的时候,将迎来这个领域发展的黄金时期。

  脑机接口是通过在大脑和外部设备之间建立直接的信息交互通道,从而实现对于大脑信息的解读,用于控制外部设备,或是通过对于神经活动的调控,增强或是拓展脑功能。

  长远来看,脑机接口的发展有望促进人的智能和人工智能的融合,从而在未来形成结构一体、信息共享的脑-机融合智能。我对于脑机接口领域的进展充满期待,由于电极、生物兼容材料、处理芯片、编解码算法等方面的快速进步,脑机接口可能在不远的将来发挥重要的作用。

  记者:陈志芳

原文链接:

https://m.mp.oeeee.com/a/BAAFRD000020200708342766.html?wxuid=ogVRcdPJB35umuE2jJ81qrPJxl5k&wxsalt=f1335f

附件: