dive into deep learning(为什么 Deep Learning 最先在语音识别和图像处理领域取得突破)
本文目录
- 为什么 Deep Learning 最先在语音识别和图像处理领域取得突破
- 如何评价吴恩达开设deeplearning课程
- deep learning初学该怎么入门是要先好好学习神经网络吗
- Deep learning需要什么样的硬件配置
为什么 Deep Learning 最先在语音识别和图像处理领域取得突破
Deep learning实际上同时推动了很多领域的发展。一个我所知道的例子是自然语言处理NLP中词向量(Word Embedding)方法对传统语言模型的提升;而且我相信,deep learning还会进一步推动更多AI领域的发展。当然,深度学习DeepLearning最为人所关注也表现最明显的,就是使语音、图像识别获得了长足的进步。其实有的同学已经回答得很漂亮了,只是我忍不住再谈谈自己的理解,抛砖引玉,大家共同讨论。本着读书人简单问题复杂化……啊呸,是论证完整化的标准,我觉得可以从以下三点递进地解决题主的疑问:1. 为什么深度学习突然间火起来了?2. 为什么深度学习会应用到语音识别和图像识别中?3. 为什么深度学习能成功地应用到语音、图像识别中,取得突破?为了让更多对深度学习感兴趣的朋友看懂,下面我尽可能地用简单的语言来阐述下我的看法(叙述中假设你已经大致知道什么是深度学习和神经网络,了解神经网络的基本原理,顺便认为你已经浏览了其他答案):==============================我是分割线============================1.为什么深度学习突然间火起来了?谈到这个问题,如果在五六年之前,很多人肯定会说是因为Hinton在Science上的那篇论文“Reducing the dimensionality ofdata with neural networks”。虽然神经网络“号称”自己可以拟合任何函数,并且可以模拟人脑的运作形式,但是这一切都是建立在神经网络足够深足够大的基础上。没有了规模,浅层的神经网络啥都达不到。而人们发现,优化多层神经网络是一个高度非凸的问题,当网络层数太多了之后,训练就难以收敛,或者只能收敛到一个次优的局部最优解,性能反而还不如一两层的浅模型。这个严重的问题直接导致了神经网络方法的上一次衰败。在2006年Hinton的那篇文章中,他提出了利用RBM预训练的方法,即用特定结构将网络先初始化到一个差不多“好”的程度,再回到传统的训练方法(反向传播BP)。这样得到的深度网络似乎就能达到一个不错的结果,从一定程度上解决了之前网络“深不了”的问题。在这个框架下,深度学习重新得到了人们重视,一批新方法被发明出来(Denoise Autoencoder,Dropout,ReLU……),都让神经网络有了前所未有的“更深”的可能。但是我们现在再回过头来看这个问题,我们应该加入两个甚至更加关键的元素:大数据和高性能计算在如今的互联网时代,近十年来数据量的积累是爆炸式的。几年后人们发现,只要有足够多的数据,即便不做预训练,也能使深层网络得到非常好的结果。而针对卷积神经网络CNN或者LSTM来说,预训练本身也不像全连接那么好做了。一个技术不能很大地提升性能,还需要researcher辛辛苦苦想算法,需要程序员辛辛苦苦写代码,你说谁干呢……现在的语音识别或图像识别系统,如果拥有大量的训练样本,基本都是没有预训练步骤的。而高性能计算是与大数据相辅相成的,想象你有好多好多数据(百万幅图片,上万小时语音),但是计算速度跟不上,训练一个网络需要好几年(做机器学习的人应该知道这个完全没有夸张吧),那这个研究也完全不必要做了吧?这也是为什么有人认为神经网络火起来完全是因为GPU使得计算方法更快更好了。从这个意义上,GPU并行计算的发展确实极大推动了深度学习的普及。有大数据和高性能计算打下最坚实的基础,人的聪明才智是无穷无尽的。那些笃信深度学习的学者们使用了各种各样的算法激发深度学习的潜能,比如微软的残差学习。否则,再多的数据也不能把传统的神经网络训练到152层啊。
如何评价吴恩达开设deeplearning课程
ng工业界确实混得不错,学术界虽然没出什么重大的名堂,名声不至于臭了吧- -人家也能算个大牛了。要说学术界引领deep learning的是Yann LeCunGeoffrey HintonYoshua Bengio
deep learning初学该怎么入门是要先好好学习神经网络吗
肯定要学会神经网络啊,因为深度学习本身就是神经网络算法,之所以叫深度学习是为了突出深度这个词。这个深度代表很多的神经网络的层数。因为以前所说的神经网络算法没有好的训练方法,最终训练的神经网络有2到3层就是极限了,对于很多应用来说没有实际价值。以前的主流神经网络训练方法叫反向传播,但是也解决不了随着神经网络层数的增加而梯度消失的问题。在2006年由GeffryHiton提出使用逐层贪婪预训练的方式,使得神经网络可以高效的训练,层数可以达到很多层,加上云计算在计算能力上的主推,使得神经网络有了很大的实用价值。你初学的话只要知道深度学习就是神经网络,只是深度上有突破就可以了。可以参考小面的文章。
Deep learning需要什么样的硬件配置
游戏的运行和机器的CPU,内存,独立显示核心等硬件配置有直接的关系,另外也和系统,驱动,其他软件等也有联系。当前,是否可以玩一个游戏,首先需要查看游戏运行的配置要求和机器的配置要求做一个对比,查看机器的配置是否符合。如果可以满足游戏的最低运行需求,则可以支持。“
更多文章:

dispatchevent(lua 自定义event,怎么处理dispatchEvent)
2025年3月14日 00:00

satellite tool kit(LEXUS LS600hL 厂牌型号)
2025年3月7日 00:00

asynctask被弃用(如何提升Android应用的性能)
2025年3月27日 00:50

voyage是什么意思中文(voyage和sail有什么区别吗)
2025年3月27日 15:00

HTML5教程咨询:个人微信头像设置为分享截图是如何实现的?iH5的概述
2025年4月3日 12:20

vb怎么连接access数据库(access与VB怎么样进行连接)
2025年3月15日 11:10

sql2014官网下载(sql 2014 组合帮助集合 在哪里打开在哪下载)
2025年3月3日 17:10

update是什么意思翻译成中文(Update翻译成汉语是什么意思)
2025年3月6日 07:50

filterconfig(java关于ServletConfig FilterConfig什么用)
2025年3月8日 18:20

sort排序头文件(编写一个sort函数,它用于对任何类型的数组进行排序)
2025年4月3日 13:00