李彦宏双创周释疑“新动能”
2017-11-18
2017全国双创活动周在上海拉开帷幕,百度创始人李彦宏作为“双创”领袖代表在启动仪式上致辞。在发言中,“人工智能忠实粉丝”的他除了介绍了AI技术对于创新创业的推动作用外,还提到了一些神秘字符——
9月15日,2017年全国大众创业万众创新活动周在上海举行,百度创始人李彦宏作为企业家代表进行发言。
今年活动周的主题是“双创促升级,壮大新动能”,在描绘“双创”升级之路时,李彦宏表示,近年来互联网的人口红利已经逐渐释放殆尽,但一个比互联网规模和影响都更大的新浪潮,正在扑面而来,就是人工智能。
李彦宏在发言中提到:技术在人工智能时代起到的作用非常大,而且技术进步的速度也很快……过去几年,深度学习从DNN,到RNN,到CNN,再到GAN,不停地在升级换代,触发新的创新。
掐指一算,这段话里一共出现了7个N。人工智能技术虽然现在已经不是新概念,但这些N究竟是什么意思?DNN(深度神经网络)、RNN(循环神经网络)、CNN(卷积神经网络)、GAN(生成式对抗网络)究竟代表了什么技术,为何最近人工智能技术会飞速发展,结合到人工智能的未来又将会如何呢?
李彦宏说道DNN、RNN、CNN、GAN其实都是深度学习的内容。这些名词听上去高深莫测。其实道理并不复杂——
DNN是啥?
所谓神经网络其实这个词是后来的,最早这个东西叫感知机,就是有一个输入层,一个隐含层,一个输出层。通过算法迭代完成一个解。
但是只有一层是处理不了复杂函数的,于是后来就发明了多层感知机,有多个隐含层,然后有算法让各个层的各个节点互相联通。
这种联通很像人体中的神经,于是这种多层的感知机就有了名字,叫神经网络。
理论上,隐含层当然是越多越好,但是科学家在使用中发现层数多了往往是局部最优。
就好比你下象棋,多层数的神经网络,算了很多步,计算怎么把对方的马吃了,然后选了最佳一步棋。但是下棋是杀死对方的帅啊,吃掉马能占据子力优势,但是并不一定赢啊。
为了吃掉对方马的最优步,不一定是赢棋的最优步,这个问题不解决,层数多了反而不好用。
同时层数多了,训练数据的有效性就弱了,整体学习的效率也就不行了。
这个难题一直到2006年才解决,然后DNN(深度神经网络)就流行了。
DNN引出的CNN
DNN已经可以实用,但是DNN的问题是参数太多,每个点连接产生的数据量太大,虽然有算法改良还是容易陷入局部最优,而现实中有些东西是固定,不需要一层层地去学习计算。
于是,科学家就提出一个叫“卷积核”的东西,用这个东西来降低参数量,参数量少了,计算效率就提升了,而且陷入局部最优解的概率也就下来了,深度计算就好用了。
时间问题引出的RNN
全部连接的DNN存在一个问题,就是没法按照时间序列的变化建立模型。但是人工智能深度学习的东西可不是静态的。
语音识别是动态的,手写也是动态的,需要解决时间序列的问题,于是就有了RNN(循环神经网络)。在DNN的基础上发展出时间戳,发展出长短时记忆单元,可以有解决时间序列的应用,这就是RNN。
以假乱真的GAN
GAN(生成式对抗网络)是给生成模型用的,机器出来的语言,图像能够以假乱真,需要一个标准,需要一个判定模型。譬如要模拟生成一张画,就有一个生成画的模型,有一张事实存在的画,有一个判定生成的画,与事实存在的画差异的模型。
首先固定生成模型,反复训练判断模型,让判断模型学会判断,判断模型学习好了,就可以训练生成模型,最终让生成模型生成的东西能以假乱真。
我们听到百度度秘能模仿人说话,就是这种技术在起作用。
在李彦宏看来,随着人工智能技术的进一步开放共享,它也将更好地賦能产业、完善生态、助力创新创业。在人工智能实际应用中,李彦宏说的DNN、CNN、RNN、GAN是混在一起用的。度秘看到你,识别你的面孔需要CNN,听取你的语音需要RNN,回答你生成语言需要GAN。
而在包括人工智能技术这些新动能发展起来之后,现代社会中简单的劳动都可以被取而代之了。endprint