【科技】人工智能:让机器拥有学习能力——访日本通讯与互联网专家吴剑明博
本篇文章436字,读完约1分钟
最近,国内外掀起了讨论人工智能的热潮,背后以谷歌和脸谱为代表的高科技公司开始广泛应用机器学习和深度学习技术,显示出良好的效果。 特别是在语音识别和图像识别两个行业,这几年的提高非常快。 谷歌每年将语音识别的精度从年的84%提高到了98%,而脸书的面部识别精度在短短几年内就超过了人类肉眼的水平。
然后,各公司发起了谷歌设立谷歌大脑计划,最初投资5亿美元收购人工智能创业企业deepmind等争夺人工智能人才的战争。 国内搜索巨头百度不输,谷歌到斯坦福大学的人工智能专家吴恩达负责百度大脑计划。 那么,人工智能到底是什么呢? 经过了怎样的快速发展历史? 未来的人工智能会怎么样? 因此,科技日报记者采访了日本kddi研究所的研究员、通信和网络专家吴剑明博士。
人工智能是怎么出现的?
吴剑明博士说,人工智能的概念大约从60年前就出现了。 在1956年美国达特茅斯大学召开的世界第一次人工智能会议上,当时在麻省理工大学工作的约翰·教授提出并推进后,人工智能的概念成为了话题。 但是,在这60年间,人工智能的迅速发展多次起伏,有红火日,也有被打入冷宫沐浴白眼的年月。
那么什么是人工智能呢? 为什么人工智能的道路会这么坎坷? 吴剑明说,顾名思义,人工智能使机器具有学习能力,可以像人类一样思考工作。 人工智能初期,一些科学家非常乐观,认为随着计算机的普及和cpu计算能力的提高,人工智能的实现迫不及待。 根据许多早年的科幻电影,2000年机器人几乎做不到。 但是人工智能的迅速发展被证明比预想的更美,不顺利。 因为人脑对机制的理解还没有走上道路。
一般认为人工智能属于计算机科学的范畴,但实际上人工智能涵盖了计算机科学、数学、心理学、哲学、语言学等大部分自然科学和社会科学学科,要突破,精通计算机 幸运的是,强攻没有结果,迂回战取得了突破,近年来,随着机器学习和深度学习技术的成熟,人类从人工智能向梦想的实现迈出了实际的一步。
快速发展的历史:从经典的数理逻辑到专家系统
人工智能从出现迅速发展到现在,经历了比较曲折的过程。
吴剑明认为,人工智能从1956年概念确立到现在,前30年间逻辑学派占主导地位,主要是逻辑推理和启发式搜索避免了当时不为人知的大脑思维规则中深层次的许多复杂问题,比较成熟比较有效 这是当时计算机性能不高,普及率也低的条件下简单灵活效果快,捷径。 由计算机实现的人工智能很快在定理说明、问题解决、模式识别等重要行业取得了很大突破,备受瞩目。 因此,年轻时的科学家们认为,人工智能与以前传来的计算机程序的本质区别在于,可以进行逻辑推理,逻辑推理定理的完整性和依赖于计算机的高性能cpu和大容量存储装置的普及,在不久的将来进行智能模拟
吴剑明说,逻辑学派除了大脑的微观结构和智能进化过程外,单纯利用程序和逻辑学解决问题的过程来模拟人类的思考过程,因此被归类为弱人工智能。 这种方法侧重于建立已解决问题的数学模型。 也就是说,找到问题输入输出之间的数量关系,将其转换为数学问题,在计算机上找到实现数学问题的处理算法。 但是,在深入研究了经典数理逻辑理论的智能模拟问题后,科学家们发现这条路走不通。 第一个原因是人工智能中的推理和搜索组合存在爆炸的问题。 也就是说,计算时间与问题的多少和复杂度成正比,大部分人的思考过程仅靠计算机的高速计算能力是无法进行模拟和处理的。 吴剑明举例说明了组合爆炸的严重性:一张纸折叠50次的厚度是多少? 很多人直观地认为是黄页电话簿的厚度。 错了。 答案是地球和太阳之间的距离。 这就是数学几何级数的恐惧。 另外,人类思维的大部分问题不能转化成数学问题。 因为人类的思考过程中充满了不明确性、矛盾和进化。 科学家们长期的实验表明,人类在处理问题时没有采用数理逻辑运算,人思考的过程无法用经典的数理逻辑理论来描述。
吴剑明说,经典的数理逻辑做法无法实现真正的人工智能,科学家需要找到其他方法来应对面临的课题。
他说,从其后10多年,即80年代开始,人工智能进入了专家系统迅速发展的黄金时代。 科学家们发现,人类之所以能够迅速有效地处理各种复杂的问题,不仅是因为人类具有逻辑推理能力,而且人类具有知识,特别是行业方面的专业知识。 这个时期也是上述弱人工智能的时代,但基于知识的逻辑推理明确了智能模拟中的重要地位,人工智能正从实验室走向实用化。
但是,这个时期,专家系统的瓶颈也出现了。 也就是说,知识获得的道路一直没有得到很好的处理,第一个原因是现在有网络,有云计算,不是无处不在的高端智能手机,那个时代的专家知识库的构建总是完整和可靠的 另外,在人类思维面临的实际问题中,可以确定的明确性问题很少,大部分是具有模糊性的问题。 所以,当知识工程深入这些问题时,古典数理逻辑的界限必然暴露了。 弱人工智能时代使人工智能理论得到了长足的发展和进步,但离实用还有比较大的距离,2000年以后出现了机器学习和深度学习,科学家们终于找到了正确的方向。
机器学习:其实是旧瓶子的新酒
吴剑明指出,如果2000年前是弱人工智能时代,2000年以后可以称为强人工智能时代。
吴剑明说,与弱人工智能相比,强人工智能在最近10多年逐渐成为主流。 强人工智能也被称为仿生学,认为人工智能应该集中于模拟人脑的结构机制。 也就是说,要通过计算机模拟人的思维过程,就必须研究神经元的相互合作机制。 不是逻辑学的计算过程。 这个学派重视大脑模型的研究,谷歌是强大的人工智能技术推土机之一。
吴剑明说,从以前开始,如果想让计算机工作或用弱人工智能的方法工作,我们就给它制定一系列的命令,计算机按照这个命令忠实地一步一步地执行,或者按照事先制定的知识逻辑公式导出。 有前因才有结果。 但是,这种方法仍然属于机器的范畴,不是人工智能。 强人工智能和弱人工智能的区别不是接受预先准备的指令和逻辑推理,而是从输入的数据中自己发现事物的规律。
吴剑明说的推进强人工智能快速发展的机器学习技术。
他认为近年来大放异彩的机器学习其实就是给旧瓶子装新酒。 1956年人工智能概念出现后不久,就有了机器学习的研究,但此后一直没有进展。 与上述专家系统相似。 因为那个时代的知识和数据的获得方法非常少,难度和价格非常大。
机器学习的思想不多而复杂,它模拟了人类在生活中成长的过程,从数据中自动分解得到规则,利用规则预测未知数据。 机器学习算法与统计学理论有很多关系,因此也被称为统计学习理论。
换言之,机器学习的本质是记录人的操作/思考过程的输入和输出,统计(也称为训练)用于预测新数据的模型,该模型对输入输出达到与人相似的表现,这种方式也是现代强人工智能的
试着直观地想象人和机器的区别。 其实不是弱人工智能强调的计算能力、记忆能力或推理能力,任何人和机器最大的区别在于人类在成长、生活过程中积累了很多历史和经验,人类定期归纳这些经验,获得生活规律。 在遇到未知问题的情况下,人类甚至会用这些法则推测未来,指导自己的生活和工作,创造新的东西。 我们的祖先常说的,以历史为鉴,可以知道兴代。 以人为鉴,明辨得失,与机器学习的思想极为接近。 机器学习中的训练和预测过程也可以分别精确地对应人类的归纳和推测过程。
吴剑明说,随着现代网络和个人计算机的普及,高端智能手机的兴起,大量数据和知识的获得变得非常容易和低价,这也直接促进了机器学习的迅速发展和实用性的迅速提高。 如果训练数据的样本足够大,学习算法的方向正确,则接近极限,有望超过人的能力。 例如,前几天谷歌的大脑从网上的成千上万张照片中学习各种猫的品种、颜色、姿势、摄影立场等特征量,对于任何照片都可以正确地识别猫。
深度学习:技术进步最终会成为有用的地方
吴剑明指出,现在除了机器学习外,人工智能还出现了深度学习的概念。 深度学习是机器学习研究的新行业,与机器学习相比,人工智能更进一步。 深度学习是基于机器学习,模拟人脑进行分解学习的神经网络,模仿人脑的机制,训练和预测图像、声音、拷贝等数据。
年6月,《纽约时报》发表了应用深度学习的谷歌大脑计划,引起了公众的关注。 这个项目的主导之一是斯坦福大学的人工智能专家吴恩达。 这个项目使用16000个cpu core的并行计算平台,训练被称为深度神经网络( dnn )的机器学习模式(内部一共10亿节点),在语音识别和图像识别行业取得了巨大的成功
吴剑明说,许多机器学习技术需要事先标注训练数据提取的特征,深度学习直接将大量数据投入算法,系统自动从数据中学习。 比如谷歌的大脑是识别猫的算法,训练数据时不需要告诉机器是猫,深度学习系统自己找到了什么是猫的分类。
为了标记机器学习所需的提取特征,实际上需要人工的专业信息和经验,有时是否可以选择,是否需要一定的运气。 这部分人工操作对最终算法的正确性起着非常重要的作用,因此不仅非常消耗时间和精力,而且如果混入了一些模糊的数据和错误的数据,前一份工作就会被放弃,工作很可能会加倍。
手工选择特征不太好,人类也不能有主观偏差,所以能自动学习特征吗? 吴剑明指出,深度学习是用来做这个事件的,又名unsupervised feature learning,顾名思义,unsupervised意味着不参加特征的选择过程。
吴剑明表示,这种研究最初开始的契机是研究瞳孔与大脑皮质神经元对应关系的科学家们发现了一些感兴趣的现象,在人眼与大脑合作识别物体时,神经元合作,从而产生了层次性的识别过程 具体而言,从原来的信号的取入(瞳孔的取入像素pixels ),接下来进行初步解决(有大脑皮质的细胞发现像素的色块间的边缘的局部变化的特征),接下来的抽象化(大脑皮质判定眼前的物体的形状、颜色、质感等)
深度学习使用了类似的分层次抽象思想,更高层次的概念从低层次的概念中学习,每个层次从下向上,学习人工未标记的数据,最后人工监视从上到下反向调整。 这也为深入学习获得了重要的特征。
吴剑明说,现在包括欧美、日本、我们在内的中国学术界都很关心深度学习,深度学习的威力现在在语音识别和图像识别方面得到了很好的验证。 但是,在自然对话和自进化机器人等人工智能更高的行业中,有必要进一步考察其效果。 值得一提的是,深度学习也是一种古老的瓶装新酒,其思想来自于20世纪80年代成熟的人工神经网络技术( ann )。 人工神经网络也同样包括输入层、输出层、中间的几个隐层,每一层都有几个节点和连接它们的边,学习在训练数据集上区分超平面,建立模型。 但是,科学家们发现,当时科学家们发现的人工神经网络实用性很差,其原因是由于巨大的计算量,人工神经网络中只含有少量的隐藏层,性能受到限制。 消费了大量的人力物资后,科学家们发现只有少数特殊的场景才能成功。 所以到了1990年代以后,人工神经网络失去了关注和经费,成为了食物无味、废弃的遗憾鸡肋领域。
但是,为什么20世纪90年代放弃的技术再次回到了引人注目的地位呢?因为80年代理论基础完备,但实际上没有达到实用所需的数据和计算能力。 近年来,随着互联网的迅速发展,计算机硬件的价格下降,Google这样的怪物级高新技术企业的存在也有可能终于处理以前不可能的困难。 另外,下功夫,深度学习行业最重要的科学家多伦多大学的辛顿教授领导的团队没有放弃人工神经网络技术的研究,2006年“科学”处理神经网络计算上的课题,学习深层神经网络 辛顿教授提出的新理论大幅度降低了多层神经网络在训练上的计算量,减少了训练偏差,与以前传来的机器学习相比特征明显。 从此神经网络再次成为机器学习界的主流学习技术。 神经网络脱胎换骨,为深入学习开辟了学术界和工业界的新浪潮。
吴剑明指出,深度学习的本质是通过建立具有许多隐性层的机器学习模型和大量的训练数据来学习更有用的特征,最终提高分类和预测的正确性。 与以往传来的机器学习不同,深度学习的区别在于,首先强调模型结构的深度,一般有5层、6层、甚至10层的隐藏层节点。 其次,确认没有被监视的特征学习的重要性。 也就是说,通过每个层次的特征变换,将样本在原始空间中的特征表现变换为新的特征空间,使分类和预测变得容易。 比起依靠机器学习所需的人工特征,利用大数据自动提取学习特征是我们向真正的人工智能前进的另一步。
另一方面,以往传来的人工神经网络的反复训练需要很多复杂的计算量,而深度学习并不是训练所有层,辛顿教授提出了更有效地降低训练上的计算量,降低训练偏差的方法。 简单来说,从下到上一次只训练一楼的互联网,通过非监视学习逐层初始化( layer-wise pre-training ),在全楼训练结束后,从上到下反方向调教( back propagan ) 例如,在人脑发育初期,大脑各部分的作用分担尚未确定。 我们对外界事物的理解来自本能和实践。 去学校学习,通过后期教育纠正自己错误的认知,对事物有更系统和更深入的理解。
即使这样,深度学习也需要很大的计算量,幸好近年来,由于计算机速度的提高、大规模集群技术的兴起、gpu的应用、很多优化算法的出现,几个月的训练过程从几天缩短到几个小时,深度学习终于有助于实践
未来的迅速发展:通过仿生学的构想实现突破
吴剑明指出,目前世界各科技发达国家人工智能的快速发展路线不同。 和其他科技行业有点类似。 在人工智能领域,欧美一直在创造新的理论,日本在改良和应用上下了功夫。 日本在硬件方面,例如机器人的精密机械制造、机器人的人性化运动方面有特征,但在关键的人工智能理论方面,由于新创和原创的理论很少,无论是学术界还是产业界,似乎都不如欧美,特别是美国活跃。 另外,可能与日本经济的长期不景气有关,但近年来日本大型企业对研究开发投资的决心和长期观点还不够充分。 例如,谷歌领先于语音识别行业,因此日本大型企业停止了自己的语音识别技术,采用了谷歌的技术。 但是,人工智能的重要入口和背后的大数据被谷歌夺走,人工智能行业不容易再翻身了。
关于哪条路线的未来性更大,吴剑明说,虽然机器学习和深度学习在语音、图像、复印识别方面有了很大的进步,但使计算机变聪明提高了智能,但与人类拥有的智能相比,有本质的区别。 例如,计算机可以正确地识别脸和物体,但张三不能识别闯红灯、李四喝醉等更抽象的场景。
人有丰富的联想能力、理解能力和创造能力。 为了实现这些能力,不建立人脑一样的机制,就走了大弯路,几乎是不可能的。 为了实现真正强大的人工智能,必须参考人脑先进的结构和学习思维机制,用深度学习这种方法进行规模、结构和机制的模拟,用仿生学的构想实现人工智能的突破。
当然,人类是从低等生物经过数十亿年,在地球生态圈这个巨大的空间中进化而来的,几乎不可能得到像人类一样充分的进化时空环境。 在完全阐明大脑的原理之前,通过模仿一些大脑的原理逐步前进可能是比较现实的方法。 比如谷歌收购deepmind后,确定不首先适用于机器人部门,而是先从基础意义认识开始。 百度也将深度学习技术应用于具体的顾客服务,比如提高中文的语音识别率、完整的图像识别能力。 所谓阶段性推进,就是按部就班,只有像人类一样有五种感觉才有思考,只有完全人工神经互联网下层的学习水平,才有更抽象的上层学习水平的突破。 从这一点出发,应该对深入学习未来进一步理论的迅速发展抱有希望。
吴剑明表示,深度学习在语音识别、图像识别等各行业应用时,已经取得了很好的效果,在计算机不需要事先告知和确定数据的意思的情况下,下一步是融合和理解各部分的数据,将1+1> 发挥2的作用,人工智能可能会真正实现。
标题:【科技】人工智能:让机器拥有学习能力——访日本通讯与互联网专家吴剑明博
地址:http://www.greenichiban.com/news/20255.html
免责声明:国际科技时报是中国具有影响力的科技媒体,以全球视角,第一时间呈现最新科技资讯。所著的内容转载自互联网,本站不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,国际科技时报的作者:何鸿宝将予以删除。