本节主要是介绍一下Naive Bayes Classification,也就是朴素贝叶斯分类。朴素贝叶斯分类器的核心思想也就是,条件独立性假设。这是一种最简单的概率图模型,也就是一种有向图模型。
条件独立性假设}
条件独立性假设用简单的图来进行表述,可以表示为如下图所示的形式:
\[\begin{figure}[H] \centering \includegraphics[width=.55\textwidth]{微信图片_20191104091918.png} \caption{条件独立性假设} \label{fig:my_label_1} \end{figure}\]我们可以将其定义为$x_i\perp x_j | y\ (i \neq j)$。根据贝叶斯公式可以得: |
而做条件独立性假设的最终目的,是为了简化运算。因为对于一个数据序列$x=(x_1,x_2,\cdots,x_p)$。如果$x_i$和$x_j$之间有关系的话,这个计算难度可能会变得很难,所以就假设各个变量之间是相互独立的。而且,马尔可夫决策链也就是这样类似的思想。
Naive Bayes Classification}
朴素贝叶斯算法的优化目的即为:
\[\begin{equation} \begin{split} \hat{y} = & argmax_{y\in \{0,1\}}p(y|x) \\ = & argmax_{y\in \{0,1\}}p(x|y)p(y) \\ \end{split} \end{equation}\]其中,
\[\begin{equation} p(x|y) = \prod_{i=1}^Np(x_i|y) \end{equation}\]对于$p(y)$这个先验概率密度函数的确定,对于二分类问题,也就是$y\sim$Bernoulli Distribution,而对于多分类问题,先验概率为$y\sim$Categorial Distribution。而对于,$p(x | y) = \prod_{i=1}^Np(x_i | y)$。如果$x$是离散的,那么$x_i\sim$Categorial Distribution;如果$x$是连续的,那么$x_i\sim\mathcal{N}(\mu_j,\sigma^2)$。对于每一类都有一个高斯分布。 |
而有关于$p(x | y)$用极大似然估计MLE,估计出来就行。因为分布的形式我们已经知道了,那么只要利用数据来进行学习,使用极大似然估计就可以得到想要的结果了。其实对于多分类的情况,Naive Bayes Classification和Guassian Discriminate Analysis很像的。 |
FEATURED TAGS
Linear
Regression
Math
Basis
Exponential
Family
Distribution
Classification
Bayes
Background
Inference
Conclusion
Feedforward
Neural
Network
Support
Vector
Machine
Margin
and
Solution
Weak
Duality
Kernel
Method
of
Function
Probability
Graph
Markov
Variational
Algorithm
Belief
Process
Introduction
Gaussian
Expectation
Maximization
Mixture
Model
Chain
Monte
Carlo
Sampling
Hidden
Learning
Kalman
Filter
Conditional
Random
Field
Boltzmann
Deep
Generative
Adversarial
Reinforcement
Blog
docker
cuda