机器学习使用场景有哪些

91次阅读
没有评论

共计 8606 个字符,预计需要花费 22 分钟才能阅读完成。

这篇文章将为大家详细讲解有关机器学习使用场景有哪些,丸趣 TV 小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

算法分类监督式学习:

在监督式学习下,输入数据被称为“训练数据”,每组训练数据有一个明确的标识或结果,如对防垃圾邮件系统中“垃圾邮件”“非垃圾邮件”,对手写数字识别中的“1“,”2“,”3“,”4“等。在建立预测模型的时候,监督式学习建立一个学习过程,将预测结果与“训练数据”的实际结果进行比较,不断的调整预测模型,直到模型的预测结果达到一个预期的准确率。监督式学习的常见应用场景如分类问题和回归问题。常见算法有逻辑回归(Logistic Regression)和反向传递神经网络(Back Propagation Neural Network)。

非监督式学习:

在非监督式学习中,数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。非监督学习模型是用来从原始数据(无训练数据)中找到隐藏的模式或者关系,因而非监督学习模型是基于未标记数据集的. 常见的应用场景包括关联规则的学习以及聚类等。常见算法包括 Apriori 算法以及 k -Means 算法。例子: 社交网络,语言预测

半监督式学习:

在此学习方式下,输入数据部分被标识,部分没有被标识,这种学习模型可以用来进行预测,但是模型首先需要学习数据的内在结构以便合理的组织数据来进行预测。应用场景包括分类和回归,算法包括一些对常用监督式学习算法的延伸,这些算法首先试图对未标识数据进行建模,在此基础上再对标识的数据进行预测。如图论推理算法(Graph Inference)或者拉普拉斯支持向量机(Laplacian SVM.)等。例子:图像分类、语音识别

强化学习:

在这种学习模式下,输入数据作为对模型的反馈,不像监督模型那样,输入数据仅仅是作为一个检查模型对错的方式,在强化学习下,输入数据直接反馈到模型,模型必须对此立刻作出调整。强化学习模型通过不同的行为来寻找目标回报函数最大化。常见的应用场景包括动态系统以及机器人控制,人工智能 AI 等。常见算法包括 Q -Learning 以及时间差学习(Temporal difference learning)。

在企业数据应用的场景下,人们最常用的可能就是监督式学习和非监督式学习的模型。在图像识别等领域,由于存在大量的非标识的数据和少量的可标识数据,目前半监督式学习是一个很热的话题。而强化学习更多的应用在机器人控制及其他需要进行系统控制的领域。

算法类似性

根据算法的功能和形式的类似性,我们可以把算法分类,比如说基于树的算法,基于神经网络的算法等等。当然,机器学习的范围非常庞大,有些算法很难明确归类到某一类。而对于有些分类来说,同一分类的算法可以针对不同类型的问题。这里,我们尽量把常用的算法按照最容易理解的方式进行分类。

回归算法:

回归算法是试图采用对误差的衡量来探索变量之间的关系的一类算法。回归算法是统计机器学习的利器。在机器学习领域,人们说起回归,有时候是指一类问题,有时候是指一类算法,这一点常常会使初学者有所困惑。常见的回归算法包括:最小二乘法(Ordinary Least Square),逻辑回归(Logistic Regression),逐步式回归(Stepwise Regression),多元自适应回归样条(Multivariate Adaptive Regression Splines)以及本地散点平滑估计(Locally Estimated Scatterplot Smoothing)。

基于实例的算法

基于实例的算法常常用来对决策问题建立模型,这样的模型常常先选取一批样本数据,然后根据某些近似性把新数据与样本数据进行比较。通过这种方式来寻找最佳的匹配。因此,基于实例的算法常常也被称为“赢家通吃”学习或者“基于记忆的学习”。常见的算法包括 k-Nearest Neighbor(KNN), 学习矢量量化(Learning Vector Quantization,LVQ),以及自组织映射算法(Self-Organizing Map,SOM)

正则化方法

正则化方法是其他算法(通常是回归算法)的延伸,根据算法的复杂度对算法进行调整。正则化方法通常对简单模型予以奖励而对复杂算法予以惩罚。常见的算法包括:Ridge Regression,Least Absolute Shrinkage and Selection Operator(LASSO),以及弹性网络(Elastic Net)。

决策树学习

决策树算法根据数据的属性采用树状结构建立决策模型,决策树模型常常用来解决分类和回归问题。常见的算法包括:分类及回归树(Classification And Regression Tree,CART),ID3 (Iterative Dichotomiser 3),C4.5,Chi-squared Automatic Interaction Detection(CHAID), Decision Stump, 随机森林(Random Forest),多元自适应回归样条(MARS)以及梯度推进机(Gradient Boosting Machine,GBM)

贝叶斯方法

贝叶斯方法算法是基于贝叶斯定理的一类算法,主要用来解决分类和回归问题。常见算法包括:朴素贝叶斯算法,平均单依赖估计(Averaged One-Dependence Estimators,AODE),以及 Bayesian Belief Network(BBN)。

基于核的算法

基于核的算法中最著名的莫过于支持向量机(SVM)了。基于核的算法把输入数据映射到一个高阶的向量空间,在这些高阶向量空间里,有些分类或者回归问题能够更容易的解决。常见的基于核的算法包括:支持向量机(Support Vector Machine,SVM),径向基函数(Radial Basis Function,RBF),以及线性判别分析(Linear Discriminate Analysis,LDA)等

聚类算法

机器学习使用场景有哪些

聚类,就像回归一样,有时候人们描述的是一类问题,有时候描述的是一类算法。聚类算法通常按照中心点或者分层的方式对输入数据进行归并。所以的聚类算法都试图找到数据的内在结构,以便按照最大的共同点将数据进行归类。常见的聚类算法包括 k-Means 算法以及期望最大化算法(Expectation Maximization,EM)。

关联规则学习

机器学习使用场景有哪些

关联规则学习通过寻找最能够解释数据变量之间关系的规则,来找出大量多元数据集中有用的关联规则。常见算法包括 Apriori 算法和 Eclat 算法等。

人工神经网络

机器学习使用场景有哪些

人工神经网络算法模拟生物神经网络,是一类模式匹配算法。通常用于解决分类和回归问题。人工神经网络是机器学习的一个庞大的分支,有几百种不同的算法。(其中深度学习就是其中的一类算法,我们会单独讨论),重要的人工神经网络算法包括:感知器神经网络(Perceptron Neural Network), 反向传递(Back Propagation),Hopfield 网络,自组织映射(Self-Organizing Map, SOM)。学习矢量量化(Learning Vector Quantization,LVQ)

深度学习

机器学习使用场景有哪些

深度学习算法是对人工神经网络的发展。在近期赢得了很多关注,特别是百度也开始发力深度学习后,更是在国内引起了很多关注。在计算能力变得日益廉价的今天,深度学习试图建立大得多也复杂得多的神经网络。很多深度学习的算法是半监督式学习算法,用来处理存在少量未标识数据的大数据集。常见的深度学习算法包括:受限波尔兹曼机(Restricted Boltzmann Machine,RBN),Deep Belief Networks(DBN),卷积网络(Convolutional Network), 堆栈式自动编码器(Stacked Auto-encoders)。

降低维度算法

机器学习使用场景有哪些

像聚类算法一样,降低维度算法试图分析数据的内在结构,不过降低维度算法是以非监督学习的方式试图利用较少的信息来归纳或者解释数据。这类算法可以用于高维数据的可视化或者用来简化数据以便监督式学习使用。常见的算法包括:主成份分析(Principle Component Analysis,PCA),偏最小二乘回归(Partial Least Square Regression,PLS),Sammon 映射,多维尺度(Multi-Dimensional Scaling, MDS), 投影追踪(Projection Pursuit)等。

集成算法:

机器学习使用场景有哪些

集成算法用一些相对较弱的学习模型独立地就同样的样本进行训练,然后把结果整合起来进行整体预测。集成算法的主要难点在于究竟集成哪些独立的较弱的学习模型以及如何把学习结果整合起来。这是一类非常强大的算法,同时也非常流行。常见的算法包括:Boosting,Bootstrapped Aggregation(Bagging),AdaBoost,堆叠泛化(Stacked Generalization,Blending),梯度推进机(Gradient Boosting Machine, GBM),随机森林(Random Forest)。

机器学习 8 大算法比较

机器学习算法太多了,分类、回归、聚类、推荐、图像识别领域等等,要想找到一个合适算法真的不容易,所以在实际应用中,我们一般都是采用启发式学习方式来实验。

通常最开始我们都会选择大家普遍认同的算法,诸如 SVM,GBDT,Adaboost,现在深度学习很火热,神经网络也是一个不错的选择。

假如你在乎精度 (accuracy) 的话,最好的方法就是通过交叉验证 (cross-validation) 对各个算法一个个地进行测试,进行比较,然后调整参数确保每个算法达到最优解,最后选择最好的一个。

但是如果你只是在寻找一个“足够好”的算法来解决你的问题,或者这里有些技巧可以参考,下面来分析下各个算法的优缺点,基于算法的优缺点,更易于我们去选择它。

偏差 方差

在统计学中,一个模型好坏,是根据偏差和方差来衡量的,所以我们先来普及一下偏差和方差:

偏差:描述的是预测值 (估计值) 的期望 E’与真实值 Y 之间的差距。偏差越大,越偏离真实数据。

机器学习使用场景有哪些

方差:描述的是预测值 P 的变化范围,离散程度,是预测值的方差,也就是离其期望值 E 的距离。方差越大,数据的分布越分散。

机器学习使用场景有哪些

模型的真实误差是两者之和,如下图:机器学习使用场景有哪些

如果是小训练集,高偏差 / 低方差的分类器 (例如,朴素贝叶斯 NB) 要比低偏差 / 高方差大分类的优势大(例如,KNN),因为后者会过拟合。

但是,随着你训练集的增长,模型对于原数据的预测能力就越好,偏差就会降低,此时低偏差 / 高方差分类器就会渐渐的表现其优势(因为它们有较低的渐近误差),此时高偏差分类器此时已经不足以提供准确的模型了。

当然,你也可以认为这是生成模型 (NB) 与判别模型 (KNN) 的一个区别。

为什么说朴素贝叶斯是高偏差低方差?

首先,假设你知道训练集和测试集的关系。简单来讲是我们要在训练集上学习一个模型,然后拿到测试集去用,效果好不好要根据测试集的错误率来衡量。

但很多时候,我们只能假设测试集和训练集的是符合同一个数据分布的,但却拿不到真正的测试数据。这时候怎么在只看到训练错误率的情况下,去衡量测试错误率呢?

由于训练样本很少(至少不足够多),所以通过训练集得到的模型,总不是真正正确的。(就算在训练集上正确率 100%,也不能说明它刻画了真实的数据分布,要知道刻画真实的数据分布才是我们的目的,而不是只刻画训练集的有限的数据点)。

而且,实际中,训练样本往往还有一定的噪音误差,所以如果太追求在训练集上的完美而采用一个很复杂的模型,会使得模型把训练集里面的误差都当成了真实的数据分布特征,从而得到错误的数据分布估计。

这样的话,到了真正的测试集上就错的一塌糊涂了(这种现象叫过拟合)。但是也不能用太简单的模型,否则在数据分布比较复杂的时候,模型就不足以刻画数据分布了(体现为连在训练集上的错误率都很高,这种现象较欠拟合)。

过拟合表明采用的模型比真实的数据分布更复杂,而欠拟合表示采用的模型比真实的数据分布要简单。

在统计学习框架下,大家刻画模型复杂度的时候,有这么个观点,认为 Error = Bias + Variance。这里的 Error 大概可以理解为模型的预测错误率,是有两部分组成的,一部分是由于模型太简单而带来的估计不准确的部分(Bias),另一部分是由于模型太复杂而带来的更大的变化空间和不确定性(Variance)。

所以,这样就容易分析朴素贝叶斯了。它简单的假设了各个数据之间是无关的,是一个被严重简化了的模型。所以,对于这样一个简单模型,大部分场合都会 Bias 部分大于 Variance 部分,也就是说高偏差而低方差。

在实际中,为了让 Error 尽量小,我们在选择模型的时候需要平衡 Bias 和 Variance 所占的比例,也就是平衡 over-fitting 和 under-fitting。

偏差和方差与模型复杂度的关系使用下图更加明了:

机器学习使用场景有哪些

当模型复杂度上升的时候,偏差会逐渐变小,而方差会逐渐变大。

常见算法优缺点

 

1. 朴素贝叶斯

朴素贝叶斯属于生成式模型(关于生成模型和判别式模型,主要还是在于是否是要求联合分布),非常简单,你只是做了一堆计数。

如果注有条件独立性假设(一个比较严格的条件),朴素贝叶斯分类器的收敛速度将快于判别模型,如逻辑回归,所以你只需要较少的训练数据即可。即使 NB 条件独立假设不成立,NB 分类器在实践中仍然表现的很出色。

它的主要缺点是它不能学习特征间的相互作用,用 mRMR 中 R 来讲,就是特征冗余。引用一个比较经典的例子,比如,虽然你喜欢 Brad Pitt 和 Tom Cruise 的电影,但是它不能学习出你不喜欢他们在一起演的电影。

优点:

朴素贝叶斯模型发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率。

对小规模的数据表现很好,能个处理多分类任务,适合增量式训练;

对缺失数据不太敏感,算法也比较简单,常用于文本分类。

缺点:

需要计算先验概率;

分类决策存在错误率;

对输入数据的表达形式很敏感。

2. 逻辑回归

属于判别式模型,有很多正则化模型的方法(L0,L1,L2,etc),而且你不必像在用朴素贝叶斯那样担心你的特征是否相关。

与决策树与 SVM 机相比,你还会得到一个不错的概率解释,你甚至可以轻松地利用新数据来更新模型(使用在线梯度下降算法,online gradient descent)。

如果你需要一个概率架构(比如,简单地调节分类阈值,指明不确定性,或者是要获得置信区间),或者你希望以后将更多的训练数据快速整合到模型中去,那么使用它吧。

Sigmoid 函数:

机器学习使用场景有哪些

优点:

实现简单,广泛的应用于工业问题上;

分类时计算量非常小,速度很快,存储资源低;

便利的观测样本概率分数;

对逻辑回归而言,多重共线性并不是问题,它可以结合 L2 正则化来解决该问题;

缺点:

当特征空间很大时,逻辑回归的性能不是很好;

容易欠拟合,一般准确度不太高

不能很好地处理大量多类特征或变量;

只能处理两分类问题(在此基础上衍生出来的 softmax 可以用于多分类),且必须线性可分;

对于非线性特征,需要进行转换;

3. 线性回归

线性回归是用于回归的,而不像 Logistic 回归是用于分类,其基本思想是用梯度下降法对最小二乘法形式的误差函数进行优化,当然也可以用 normal equation 直接求得参数的解,结果为:

机器学习使用场景有哪些

而在 LWLR(局部加权线性回归)中,参数的计算表达式为:

机器学习使用场景有哪些

由此可见 LWLR 与 LR 不同,LWLR 是一个非参数模型,因为每次进行回归计算都要遍历训练样本至少一次。

优点:

  实现简单,计算简单

缺点: 

不能拟合非线性数据.

4. 最近邻算法——KNN

KNN 即最近邻算法,其主要过程为:

1. 计算训练样本和测试样本中每个样本点的距离(常见的距离度量有欧式距离,马氏距离等);

2. 对上面所有的距离值进行排序;

3. 选前 k 个最小距离的样本;

4. 根据这 k 个样本的标签进行投票,得到最后的分类类别;

如何选择一个最佳的 K 值,这取决于数据。一般情况下,在分类时较大的 K 值能够减小噪声的影响。但会使类别之间的界限变得模糊。

一个较好的 K 值可通过各种启发式技术来获取,比如,交叉验证。另外噪声和非相关性特征向量的存在会使 K 近邻算法的准确性减小。

近邻算法具有较强的一致性结果。随着数据趋于无限,算法保证错误率不会超过贝叶斯算法错误率的两倍。对于一些好的 K 值,K 近邻保证错误率不会超过贝叶斯理论误差率。

优点:

理论成熟,思想简单,既可以用来做分类也可以用来做回归;

可用于非线性分类;

训练时间复杂度为 O(n);

对数据没有假设,准确度高,对 outlier 不敏感;

缺点:

计算量大;

样本不平衡问题(即有些类别的样本数量很多,而其它样本的数量很少);

需要大量的内存;

5. 决策树

易于解释。它可以毫无压力地处理特征间的交互关系并且是非参数化的,因此你不必担心异常值或者数据是否线性可分(举个例子,决策树能轻松处理好类别 A 在某个特征维度 x 的末端,类别 B 在中间,然后类别 A 又出现在特征维度 x 前端的情况)。

它的缺点之一就是不支持在线学习,于是在新样本到来后,决策树需要全部重建。

另一个缺点就是容易出现过拟合,但这也就是诸如随机森林 RF(或提升树 boosted tree)之类的集成方法的切入点。

另外,随机森林经常是很多分类问题的赢家(通常比支持向量机好上那么一丁点),它训练快速并且可调,同时你无须担心要像支持向量机那样调一大堆参数,所以在以前都一直很受欢迎。

决策树中很重要的一点就是选择一个属性进行分枝,因此要注意一下信息增益的计算公式,并深入理解它。

信息熵的计算公式如下:

机器学习使用场景有哪些

其中的 n 代表有 n 个分类类别(比如假设是 2 类问题,那么 n =2)。分别计算这 2 类样本在总样本中出现的概率 p1 和 p2,这样就可以计算出未选中属性分枝前的信息熵。

现在选中一个属性 xixi 用来进行分枝,此时分枝规则是:如果 xi=vxi= v 的话,将样本分到树的一个分支; 如果不相等则进入另一个分支。

很显然,分支中的样本很有可能包括 2 个类别,分别计算这 2 个分支的熵 H1 和 H2, 计算出分枝后的总信息熵 H’=p1 H1+p2 H2, 则此时的信息增益 ΔH = H – H’。以信息增益为原则,把所有的属性都测试一边,选择一个使增益最大的属性作为本次分枝属性。

优点

计算简单,易于理解,可解释性强;

比较适合处理有缺失属性的样本;

能够处理不相关的特征;

在相对短的时间内能够对大型数据源做出可行且效果良好的结果。

缺点

容易发生过拟合(随机森林可以很大程度上减少过拟合);

忽略了数据之间的相关性;

对于那些各类别样本数量不一致的数据,在决策树当中, 信息增益的结果偏向于那些具有更多数值的特征(只要是使用了信息增益,都有这个缺点,如 RF)。

5.1 Adaboosting

Adaboost 是一种加和模型,每个模型都是基于上一次模型的错误率来建立的,过分关注分错的样本,而对正确分类的样本减少关注度,逐次迭代之后,可以得到一个相对较好的模型。是一种典型的 boosting 算法。下面是总结下它的优缺点。

优点

adaboost 是一种有很高精度的分类器。

可以使用各种方法构建子分类器,Adaboost 算法提供的是框架。

当使用简单分类器时,计算出的结果是可以理解的,并且弱分类器的构造极其简单。

简单,不用做特征筛选。

不容易发生 overfitting。

关于随机森林和 GBDT 等组合算法,参考这篇文章:机器学习 - 组合算法总结

缺点:
对 outlier 比较敏感

6.SVM 支持向量机

高准确率,为避免过拟合提供了很好的理论保证,而且就算数据在原特征空间线性不可分,只要给个合适的核函数,它就能运行得很好。

在动辄超高维的文本分类问题中特别受欢迎。可惜内存消耗大,难以解释,运行和调参也有些烦人,而随机森林却刚好避开了这些缺点,比较实用。

优点

可以解决高维问题,即大型特征空间;

能够处理非线性特征的相互作用;

无需依赖整个数据;

可以提高泛化能力;

缺点

当观测样本很多时,效率并不是很高;

对非线性问题没有通用解决方案,有时候很难找到一个合适的核函数;

对缺失数据敏感;

对于核的选择也是有技巧的(libsvm 中自带了四种核函数:线性核、多项式核、RBF 以及 sigmoid 核):

第一,如果样本数量小于特征数,那么就没必要选择非线性核,简单的使用线性核就可以了;

第二,如果样本数量大于特征数目,这时可以使用非线性核,将样本映射到更高维度,一般可以得到更好的结果;

第三,如果样本数目和特征数目相等,该情况可以使用非线性核,原理和第二种一样。

对于第一种情况,也可以先对数据进行降维,然后使用非线性核,这也是一种方法。

7. 人工神经网络的优缺点优点:

分类的准确度高;

并行分布处理能力强, 分布存储及学习能力强,

对噪声神经有较强的鲁棒性和容错能力,能充分逼近复杂的非线性关系;

具备联想记忆的功能。

缺点:

神经网络需要大量的参数,如网络拓扑结构、权值和阈值的初始值;

不能观察之间的学习过程,输出结果难以解释,会影响到结果的可信度和可接受程度;

学习时间过长, 甚至可能达不到学习的目的。

关于“机器学习使用场景有哪些”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-08-16发表,共计8606字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)