153 8519 1967

8:30-23:00 / 节假日10:00-18:00

主页 > 我们的动态 >

CNN先驱ー福岛邦彦:渴望了解人脑的机制


你可能从没想过的,都从这里开始~

 
HEADLINE

       在人工智能技术高速发展的今天,第三拨人工智能热潮,源于深度学习技术的复兴。这位被称为“深度学习之父”的工程师福岛邦彦(Kunihiko Fukushima)在日本创造了此项基础技术。他于1979年向世界提出的分层人工神经回路模型“ 神经认知机(Neocognitron)”在最近的深度学习的革命中被世界科学界重视。而现年83岁的福岛(Fukushima)仍在东京郊区自己的房间里学习,坐在三台PC显示器前,研究并发表论文。如此的学习热情正来源于“渴望了解人脑机制”。


      而小编今天为大家整理了媒体对福岛老师的采访的部分选节,旨在使大家了解福岛先生的同时,让更多对人工智能感兴趣的同学对其的基础概念有一定的了解。

 

 

 

 

福岛先生从事多年的“神经回路模型”是在假设人工神经回路与大脑有同样反应机制的基础上,进行数学分析等综合论证吗?

 对的,那是我研究的基础。

根据您的解释,它的特征有两个方面:一是对大脑本身的阐明, 二是基于神经系统特征的新信息处理系统的创建。

1965年NHK广播科学研究所有个研究说明了这个问题。首先我们要了解电视和广播发送的图像和声音以及最终接收它们的人脑机制。

在研究所里我们进行了有关神经生理学,心理学和神经回路模型这三项研究。由这三个领域的人们聚集在一起探索大脑机制。而我有工程师背景,并负责神经网络模型。

 

等于说,这个研究需要用到三个领域的专业知识吗?

当然。

例如,神经生理学领域的人们首先由光照射到鲤鱼等活物的视网膜上的机制开始,然后逐渐发现了猫和猴的视觉皮层中的细胞对光刺激的反应。而在心理学领域里,我们尝试对人类显示各种颜色,而当显示颜色的时间变得非常短时,被试验者可能会看到与所展示的颜色不同的颜色。

因此,在使用这种实验方法分析大脑的本质的同时,我们在神经网络模型上也在尝试以相反的方式进行解释,即合成方法。

换句话说,我们旨在创建一个简化的抽象模型,并合成一个显示与大脑相同反应的网络。

也就是说尽管有相互影响,但“神经回路模型”与大脑机制的方法是相反的。

对,是这样的。事实上在那个时候我对两位神经学家的研究很感兴趣,他们后来获得了1981年的诺贝尔生理学医学奖:David Hunter Hubel和Torsten Nils Wiesel。在以猫为实验对象的时候,他们提出了这样的假设:在大脑皮层的主要视觉皮层中,三种类型的细胞以层次结构连接以处理视觉信息。

受此启发,我做了一个类似的神经回路模型,并试图检测各种形状的曲率。当时对这方面比较有兴趣,又加上研究室有负责生理学的同事,实验室中也有相关文献,所以就开始了自己的研究。但是实际上起初我并不真正了解生理学领域的术语。我从一个有趣的实验插图开始,寻找并阅读了一些带有类似图解的论文,由此慢慢开始了自己的研究。我首先做出的是一种将图像的输入层和输出层连接起来的结构,在现在被称为“ CNN(卷积神经网络)”的多层电路。

现在,神经网络已经成为人工智能(AI)的图像识别技术重要一环。但CNN却建立在计算机发展之前。为了CNN创建,据说电阻器等零件是一一连接的,如此看来,您的假说和远见是领先于时代和环境的。

没错,最初的时候没有设备可以直接输出图像。用行式打印机打印的数字以每张数字的不同裁成5毫米正方形的不同色彩浓度的纸粘贴。

不过,虽说是多层电路但也仍然很简单。而在70年代初的时候我想知道当有更多的层重叠的时候会发生什么,为此我有很长一段时间在等待有关生理学的论文发表,但是它一直没有发表。然后,别无选择,只能自己去学习和研究,并参考神经网络“感知器”设计了神经回路模型“认知机”。

是“神经认知机”的前身吗?

是的。“感知器”具有输入层,中间层和输出层的三层结构,但是只能学习输出层。此外,而且每次都需要针对问题和答案数据进行优化。这不是有效的学习。再然后,我后来使用的“认知机”,就是所谓的无监督“竞争学习”这样的机制。让单元(神经元)相互竞争输入数据,响应最大的输出的单元将获胜并进行更新,并使其更接近输入数据。这样的话,如果向多层神经回路展示各种事物并对其进行刺激,则会自动生成适当的响应单元。

但是有一个问题。如果输入模式变形或移位,则无法很好地识别它,并被视为完全不同的模式。

这意味会出现像由于手写“ A”的变形和位置,它被识别为不是“ A”的字符这种事情对吧。

没错。正因为这样,我们设计了一种神经回路,该回路通过将“认知机”的学习规律纳入检测曲率的多层神经回路中来执行所谓的“卷积”学习。换句话说,当一个细胞学习时,它周围的所有其他细胞将成长为具有相似的属性的细胞。这就是1979年发布的名为“ Neocognitron”的神经回路模型。

层次结构顶部的单元可以识别和学习字母“ A”的局部特征,例如尖锐的顶点和直线相交的点。这样的话也就是说即使是以前从未学习过的模式,如果它们相似,也可以被正确识别吧。

对的。“ Cognitron”是以 “Perceptron”和“perception”的对比来命名。“perception”附加了“tron”(后缀是指机器或工具),因此我在“cognition(认知)”后面加上了“ tron”。再后来由于它的发展,我决定加上Neo(做前缀指神经或精神),这就是“ 神经认知机(Neocognitron)”的由来。

被誉为AI的核心技术[deep learning]之父是一种什么样的体验?

老实说,我很高兴。在最初有些人即使做了我做过的类似的事情也并没有标注引用自我的论文。最近,过去没有在文献里写上我名字的人现在也把我的名字写了上去。相对于脸部识别我认为令人惊奇AI首先做到的是笔头识别。

但是,即使进行这种深度学习,也存在各种问题。例如,如果不学习很多数据,那么AI将无法获得与人类相同的能力。但作为人类,我们可以用更少的数据来总结经验,从而展示自己的能力。

我本人仍在研究是否可以通过其他方式继续开发Neocognitron的潜力,并通过与深度学习略有不同的方式对其进行改进。简而言之,这是一种不需要太多数据的技术。没有太多的学习阶段,但是学习结束后,在识别阶段会创建大量数据。

 

对于您来说,探索的终极目标在哪里?

不,没有特别的终极目标。在人类完全了解大脑本身的机制之前,可能需要几个世纪的时间。我认为我们的进展(包括当前的深度学习)相当缓慢。不过,我想了解真相。因此,我认为人工智能反过来可以用作解决此问题的工具,即用人工智能去探索人工智能。

 

Q

Comments

Medicine_D group:基础理论在实践上的应用往往要花费大量的时间与精力,福岛先生在70年代所提出的深度学习直到今天才被应用到了人工智能上。但是这些伟大的科学成就一旦实现,将会造福后世千代万代人,如牛顿的经典力学理论,至今还在我们日常生活的各个领域里被广泛应用。又例如爱心斯坦的相对论,也造福了全世界的航空航天业,以及GPS、核能发电、放射线治疗、粒子加速器等技术的制造和使用。这些例子都证明了没有一项科学研究是无用的,只要愿意投身于自己感兴趣的领域,并且付出努力,那就一定会对整个人类的发展作出贡献。