人工智能和人的智能,一字之别差在哪?

2016年6月12日

   “听”和“说”是人工智能的两个重要入口,无论是siri这样的语音助手还是Google的无人驾驶,都要机器能听得懂语音命令,满足基本的人机交互。科大讯飞开放平台是全球最大的语音和人工智能开放平台,并且为教育、智能驾驶等领域提供智能语音服务。科大讯飞轮值总裁、研究院院长胡郁认为人工智能和人的智能是两条不同的发展路径,人工智能会逼近甚至超过人的智能,但短时间内不会出现意识。

  以下内容根据胡郁口述整理:

  我们讲人的智能,是一个包罗万象的概念,人类有视觉、听觉,能听懂语言,还可以下棋,人类可以通过一个大脑,实现这些功能,这是人类的智能,但是人工智能不一样,它是通过不同的算法实现不同的功能,这是二者最大的区别。

  目前,人工智能处于什么阶段呢?并不是说人所有的智能计算机现在都能实现,它是逐步来的。比如人类一些简单的功能,比如逻辑、计算、记忆等等,计算机做得比人还好,这一类被称之为运算智能。

  在人工智能出现的这六十年中,这个行业一直还处于研究阶段,主要研究三个问题:第一个是用什么方法来做?第二个是用什么样的数据?第三个是人工智能会有哪些应用?

  为什么智能语音在2010年左右取得较大突破?首先是因为在2006年提出的深度神经网络技术逐渐成熟,这是一套神经网络模型,模拟大脑的神经网络结构,第二是因为随着移动互联网时代的到来,数据足够多。

  第三是因为人工智能进行了商业化,这对它的发展很重要,人工智能发展的一个必要条件是有人在使用过程中不断给予反馈,帮助人工智能调整、改进,这个人必须是真的人。目前科大讯飞的语音输入每天有几亿次的使用数据,计算机可以不断纠正自己,提高正确率,这种使用成本在互联网和移动互联网之前是没有办法做到的,那时候成本太高。

  「 人工智能和人的智能实现路径不一样 」

  机器实现智能的方法,跟人脑实现智能的方法、途径是不一样的,但是二者的目标是一样的,机器会用它擅长的方法去做,这个是目前实现弱人工智能技术上的一条路径,不管科学家使用什么样的方法,计算机科学或者仿生学,都是使用和人脑不一样的方法实现相同的效果。

  目前人工智能还处于弱人工智能阶段,未来要实现强人工智能的话,是希望计算机能够自主学习、举一反三。但是目前还在研究阶段,没有人找到该怎么做。

  人工智能目前还处于感知阶段,之前是逻辑、计算阶段,那个阶段是以“深蓝”为代表,未来更高层的阶段是认知,也就是强人工智能阶段。感知层面现在已经做得比较好了,比如计算机可以比较精准的识别图像和语音,虽然它跟人类做的方法不一样,但最后的结果非常好。

  感知和认知在人的智能上,不是完全分割的。当人在听一个句子的时候,其实大脑里是在进行认知的,但对计算机而言,这两步是分开的,而且要逐步实现。

  目前行业内也开始研究计算机的认知能力,比如科大讯飞研发的阅卷智能设备,计算机可以给作文打分,这并不是说计算机已经看懂了人类写的文章,而是在这之前会存储人类历史上大量的文章。计算机评卷的规则就是找相关性,在某一个主题下,是不是会有固定的几个关键词?比如一篇描写春天的文章,如果有大量描述冬天的词汇,那肯定相关性就会降低,这就是机器擅长使用的大数据方法。

  智能语音也是这样。小孩子从出生到听得懂外界的语言大概需要两三年的时间,他有效收听外界语言的时间可能连1000个小时都不到,但是计算机想要达到同样的效果,可能要收集10万个小时的语音数据,它听到的越多,智能语音的准确性就会越高。

  计算机是靠大数据的相关性,人是靠逻辑,二者都可以解决问题,方法虽然不一样,但是最终的结果是一样的。从人工智能研究者的角度来讲,他们更关心人工智能是不是跟人类一样具有智慧;从应用者的角度来讲,更关心它的结果,是不是满足需求。就像AlphaGO一样,它可以战胜人类,但是能说明它真的会下围棋吗?它并不会,它根本不知道围棋是什么,但它表现出来的结果比人类更好,这才是现在我们讲的人工智能的本质和精髓。

  根据现在对计算机科学和仿生学的研究,可以看出在某些话题下,双方构建的模型有一定的相似度,但是这还不足以证明我们可以按照大脑的模型构建出真正的人工智能,相似度只是一个结果,但业内还没有研究出来为什么会出现这样的结果。

  目前科学仍然无法说明大脑的工作原理,人是有逻辑的,这主要是由左脑负责,但是右脑负责的直觉、想象力等很难解释,目前的科学也无法解释清楚,所以在只有一个结果的前提下,没有办法为真正的人工智能提供解决路径。

  这就能够解释,为什么弱人工智能可以不断地取得进步,但是这种进步是有天花板的,也就是它绝对不会自主去学习,人类要给它数据,模型也要帮它搭建好,它才可以实现深度学习。

  计算机跟人的成长是反着的,比如说常识对人来说很简单,四五岁的孩子基本上就有了足够的常识,要经过十多年的知识和逻辑的积累才能够参加高考,但是计算机不一样,逻辑对它来说很简单,输入一个行业的知识也不难,真正的难点在于常识,没有常识的支撑,计算机的很多知识和逻辑无法运用,这就是二者路径最大的区别。人类一定要知道,将来机器人战胜我们的方法,一定是以它最擅长的方法,而不是我们想象的方法。

  「 人工智能目前不可能出现意识 」

  从地球上生物的发展可以看到,有意识的前提是要有智能,没有智能不可能产生意识。但有智能就一定会产生意识?这不一定。

  人工智能就是这样,目前的人工智能还看不到意识产生的任何源泉,意识是什么?意识是我知道我是谁,我知道我在干什么,我知道我要干什么。但目前人工智能的方法都是人类教的,它只是在结果上表现得和人的智能一样。人的智能究竟是如何产生的?目前还没有研究清楚,当人类智能越来越先进的时候,意识也会越来越强,但是当我们要用现代的人工智能的方法去做弱人工智能的时候,并不能保证它越来越强。

  目前人工智能根本不可能产生意识,因为人类根本没有研究意识是怎么产生的,人类目前的研究是如何让它表现得更像智能一些。但是人的智能和人工智能是完全不同的,人类越智能意识也就越强,但是这一点对人工智能并不适用,计算机是在用擅长的运算和存储能力来实现同样的效果,因此,人工智能在产生智能的过程中,看起来智能的结果跟人越来越接近了,但这条路径不会产生意识的。

  也就是说,我们现在所做的所有成功的人工智能跟意识都没有关系,跟意识的产生过程都没有关系,基于大数据的这种方法,目前也看不到任何产生意识的迹象。大家都讲人工智能在很多领域战胜了人类,好像它也会产生意识一样,这是很大的误区。

  目前人工智能的难点在于很难找到突破点,很难让很多用户使用,进入正循环的过程,人工智能必须要有足够的用户使用才可以更加准确。智能语音就是这样的过程,一开始是非主流用户在非主流场景使用,慢慢的一些主流用户在非主流场景中使用,现在是主流用户在主流场景下去用它。

  语音交互是人工智能的基础功能,在未来产业化的过程中,我们有几个路径,一种是做技术支持,把技术提供给别人;第二种是直接拿技术去改造一些行业,比如教育等,像目前已经做的阅卷机器人,或者无人驾驶,科大讯飞可以给终端提供语音系统;第三种是做集成性的智能硬件,比如Google在2016年开发者大会上发布的智能盒子Home,这些都是我们可以把技术提供给别人的途径。

相关产品: