本节的主要目的是从一个较高的角度来介绍一下,什么是深度学习,并且给深度学习一个较好的总结,给大家一个较好的印象。机器学习是目前最火热的一个研究方向,而机器学习大致可以分为,频率派和贝叶斯派。频率派逐渐演变出了统计机器学习,而贝叶斯派逐渐演变出了PGM,也就是概率图模型。下面我们分开进行描述。
频率派}
统计机器学习方法基本就是由频率派的估计思想得到的。统计机器学习方法大概可以分成四种。
-
正则化:$L_1,L_2$也就是之前提到的Lasso和岭回归,这实际上并没有产生新的模型,而是在之前模型的基础上进行了改进。我们可以把它描述为Loss function + regularized。用来抑制训练的过拟合。
-
核化:最著名的就是我们之前提到的,Kernel Support Vector Machine (SVM)了。
-
集成化:也就是Adaboost和Random Forest。
-
层次化:层次化主要就是我们指的Neural Network,也就是神经网络,神经网络进一步发展就得到了我们现在研究的深度学习。而神经网络中比较著名的几类就是:1. 多层感知机(Multiple Layer Perception);2. Auto-encode;3. CNN;4. RNN。这几个组合起来就是我们经常听到的Deep Network。
贝叶斯派}
贝叶斯派的估计方法就演化得到了概率图模型(Probability Graphic Model。他们大致可以分成以下三类:
-
有向图:Bayesian Network,也就是Deep Directed Network,包括大家听得很多的:Variable Automation Encode (VAE),Generative Adversarial Network (GAN)和Sigmoid Belief Network等等。
-
无向图:Markov Network,也就是Deep Boltzmann Modeling,这就是我们的第二类图模型。
-
有向图和无向图混合在一起,就是我们常说的Mixed Network,主要包括,Deep Belief Network等等。
而上述几个图模型,结合起来就是我们常说的Deep Generative Network,深度生成模型。
在我们狭义的深度学习的理解中,什么是深度学习,实际上就是统计学习方法中的层次化中的Deep Network。而广义的深度学习中,还应该包括,Deep Generative Network。而实际上绝大多数的深度学习者都不太了解Deep Generative Network,确实涉及到贝叶斯的理论,深度学习就会变得很难。而且它的训练也会变得非常的复杂。
-
Previous
Bayes_Linear_Classification_03_Prediction_&_Conclusion -
Next
Feedforward_Neural_Network_02_Development