机器学习的步骤都有哪些?

我们都知道,现阶段人工智能是一个十分火爆的概念,人工智能能够给我们的生活带来很多的方便。其实人工智能中机器学习也是一个十分火热的概念,而不管是什么技术都会有很多的步骤,那么机器学习用的步骤都有哪些呢?下面我们就给大家介绍一下这些内容。

机器学习中有三个步骤,第一就是表示,第二就是评价,第三就是优化。

机器学习中的表示

我们首先给大家介绍一下机器学习中的表示,在表示这一步当中,需要我们建立起数据,还有实际问题的抽象模型。在表示的过程当中,我们要解决的问题就是把我们面临的真实世界当中的一些物理问题给它抽象化,抽象成一个数学问题。

这里面就包括了两个方面,一方面我们要对要解决的这个实际的问题进行抽象化处理。如果我们要设计一个算法,判断一个邮件它到底是不是一封垃圾邮件,那么得到的结果无外乎两种,也就是是和否。这样一个问题如果对它做抽象,实际上就是个二分分类问题。如果答案为是,我们可以把它定义成 0,如果答案为不是,可以把它定义成 1。所以,这个问题最终要解决的是什么呢?输出一个 0 或者 1 的结果。当然把 0 和 1 的意义调过来也可以,用 1 代表是垃圾邮件,0 代表不是,也是可以的。抽象出来这个数学问题之后,我们要进一步去解决它,还要对这个数据进行表示。

在表示阶段,我们需要建立的是数据,还有问题的抽象模型。把这个模型建立出来,然后去寻找合理的算法。当我们解决了问题抽象完了以后,我们还要对数据进行抽象。我们就举一个例子,也就是在判定一个邮件到底是不是垃圾邮件的时候,我们需要根据它的特征进行判断,看一看这个邮件里的关健字是否有关于推销的,或者关于产品的一些关键字。这些特征,这些关键字,我们就要把它表示成一个特征,表示成一个向量,或者表示成其他的形式。表示成向量也好,表示成其他形式也好,都是对这个数据做出了抽象。这就是机器学习中的表示步骤。

机器学习的第一个步骤——表示,而表示还涉及到了一些算法......

机器学习中涉及到了很多的算法,比如K-近邻算法、回归模型、决策树、SVM支持向量机。我们首先给大家说一下K-近邻算法。在机器学习当中,我们常见的有 K-近邻算法。K-近邻算法实际上就是,找到一个样本点和这个样本点最近的几个邻居,最近的这K个邻居。按照少数服从多数的原则,对它进行分类,这就是 K-近邻算法。而回归模型也是表示步骤中使用最多的内容。回归模型是一种预测性的建模技术,它研究的是因变量和自变量之间的关系。这种技术通常用于预测分析,时间序列模型以及发现变量之间的因果关系。除此之外,还有线性回归,这样的统计学习方法。当然,对二分类我们可以建立逻辑回归模型。

然后我们说一下决策树,是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。决策树它不依赖于数据,它完全是自顶向下的一个设计。线性回归也好,逻辑回归也好,它是从数据反过来去推导模型,而决策树直接去用模型判定数据,两个方向不太一样。最后我们说一下SVM支持向量机。SVM支持向量机这样的纯数学方法。所以说表示的部分,我们需要把问题和数据进行抽象,这个时候我们就要用到抽象的工具。而支持向量机这种算法就能够解决这些问题。

上文介绍了机器学习中表示步骤中涉及到的算法,具体的算法有K-近邻算法、回归模型、决策树、SVM支持向量机。这些算法在机器学习中都是十分实用的,所以我们要想掌握机器学习一定不要忽视这些算法。

下面将介绍机器学习中的第二个步骤和第三个步骤,那就是评价和优化。

机器学习中的评价

首先我们给大家说一下评价,当我们在进行机器学习工作的时候,需要寻找模型,在给定了模型之后,我们如何评价这个模型的好坏呢?这个时候就需要设定一个目标函数,来评价这个模型的性质。这就需要我们设定目标函数。目标函数的选取也可以有多种形式。像对于我们说到的垃圾邮件这种问题,我们可以定义一个错误率。如果说一个邮件它原本不是垃圾邮件,但是我们选用的这个算法误判成了垃圾邮件,这就是一个错误的案例。错误率在分类问题当中是个常用的指标,或者说常用的目标函数。这就涉及到了数学工具中的最小均方误差和最大后验概率。在回归当中,我们会使用最小均方误差这样一个常用目标函数,尤其是在线性回归里。除此之外呢,还有最大后验概率,一些其他的指标。这就是机器学习中的评价步骤。

机器学习中的优化

接着我们给大家说一下优化步骤,当我们有了目标函数以后,我们就需要求解这个目标函数在模型之下的一个最优解,这个模型能够获取到的最小错误率,或者最小均方误差是多少呢?我们要求出一个特定的值。没有这个值的话,那么我们如何评价不同的模型它到底是好是坏呢?所以说优化这个步骤它的作用是求解目标函数在模型之下的一个最优解,看看这个模型在解决这个问题的时候,最好能达到什么样的程度。总结来说,机器学习的三个步骤,包括了表示、评价、优化这样三个步骤,在这三个步骤当中我们会用到不同的数学公式来分别解决这三个问题。所以这就需要我们能够熟练使用数学工具。

评价和优化这两个步骤都涉及到了很多的数学工具,所以我们就需要加强数学工具的训练,这样我们才能够更好地应对机器学习的工作。

数学工具

在评价步骤中,涉及到了两种数学工具,它们分别是最小均方误差和最大后验概率,首先我们给大家说一下最小均方误差,均方误差是反映估计量与被估计量之间差异程度的一种度量。设t是根据子样确定的总体参数θ的一个估计量,(θ-t)*2的数学期望,称为估计量t的均方误差。它等于σ*2+b*2,其中σ*2与b分别是t的方差与偏倚。接着我们给大家说一下最大后验概率,在贝叶斯统计学中,“最大后验概率估计”是后验概率分布的众数。利用最大后验概率估计可以获得对实验数据中无法直接观察到的量的点估计。它与最大似然估计中的经典方法有密切关系,但是它使用了一个增广的优化目标,进一步考虑了被估计量的先验概率分布。所以最大后验概率估计可以看作是规则化的最大似然估计。这些就是两个数学工具的具体概念。

而在机器学习中涉及到了三个数学工具,分别是线性代数、概率统计、最优化理论。我们给大家介绍一下线性代数,在表示这个步骤当中,我们主要使用的工具就是线性代数。线性代数起到的一个最主要的作用就是把具体的事物转化成抽象的数学模型。不管你的世界当中有多么纷繁复杂,我们都可以把它转化成一个向量,或者一个矩阵的形式。这就是线性代数最主要的作用。所以,在线性代数解决表示这个问题的过程中,我们主要包括这样两个部分,一方面是线性空间理论,也就是我们说的向量、矩阵、变换这样一些问题。第二个是矩阵分析。给定一个矩阵,我们可以对它做奇异值分解,或者是做其他的一些分析。这样两个部分共同构成了我们机器学习当中所需要的线性代数。

机器学习中涉及到了很多的数学工具,前面介绍了很多,其中线性代数是一个比较常见的数学工具,接下来我们重点给大家介绍一下概率统计这一数学工具。

线性代数

在前面我们说到,线性代数起作用是在表示的过程当中。在评价过程中,我们需要使用到概率统计。概率统计包括了两个方面,一方面是数理统计,另外一方面是概率论。数理统计好理解,机器学习当中应用的很多模型都是来源于数理统计。在具体地给定了目标函数之后,我们在实际地去评价这个目标函数的时候,我们会用到一些概率论。比方说给定了一个分布,我要求解这个目标函数的期望值。在平均意义上,这个目标函数能达到什么程度呢?这个时候就需要使用到概率论。实际上对于数理统计来说,我们在评价模型的时候,不只关注的是一个目标函数,我们可能还关注一些它的统计特性。比如说它的置信度,或者是其他的一些指标。当模型建立起来,它的可信性程度到底有多大,这些在早期的机器学习算法当中也是需要考虑的。所以概率统计在机器学习中体现出很大的作用。

当然随着神经网络,随着深度学习的兴起,有很多的内容实际上渐渐地衰落,或者渐渐地被忽略。在神经网络当中可能只需要达到一个这个好的目标函数,好的指标就行,至于说它的置信度,这些我们不去考虑。统计学强调可解释性,这个模型能够达到什么样的指标,我们能把它清清楚楚地讲明白,为什么能够达到这样的指标,它的原理在哪?它背后的根据在哪?给定一个分布,假如说高斯分布,那么再给定一个模型,我们就可以通过严谨而简洁的这个数学推导,把这个结果以公式的形式给它呈现出来,这个看起来就很高大上,或者说很清楚。但神经网络和深度学习,现在还达不到这样可解释的程度。够通过调参数调出一个比较好的结果,但是哪些因素会影响到它我们可能还不是那么清晰。所以呢,关于概率统计主要在机器学习中的评价步骤备受应用。

概率统计知识在机器学习中评价步骤中用的很多。其实最优化理论在机器学习中的优化步骤中也是十分重要的,下面我们就给大家介绍一下这些内容。

最优化理论

最优化理论,我们一看就知道这是用在机器学习的优化中,在最优化理论当中,主要的研究方向是凸优化。凸优化当然它有些限制,但它的好处是什么呢?能够简化这个问题的解。因为在优化当中我们都知道,我们要求的是一个最大值,或者是最小值,但实际当中我们可能会遇到一些局部的极大值,局部的极小值,还有鞍点这样的点。凸优化可以避免这个问题。在凸优化当中,极大值就是最大值,极小值也就是最小值。但是在实际当中,尤其是引入了神经网络还有深度学习之后,凸优化的应用范围越来越窄,很多情况下它不再适用,所以这里面我们主要用到的是无约束优化。同时,在神经网络当中应用最广的一个算法,一个优化方法,就是反向传播。所以最优化理论是很多人工智能以及机器学习需要使用的内容。

三种数学工具和三个步骤并非一一对应

机器学习当中,用到的基础数学都包括三种,分别是线性代数,概率统计,还有最优化理论。我们在机器学习当中用到的最基础的一些数学工具。如果大概做一个分类,分别对应到我们机器学习当中,表示、评价,还有优化这样三个步骤。在表示当中我们只用到线性代数,概率统计一点儿都不涉及,同样地,我们在评价的时候,线性代数也不涉及,不是这样,都会有一个交叉的过程,但是在每个步骤当中应用到的主要工具还是有所区别。其实高等数学是数学工具的基础当然,在数学工具当中,我们并没有涉及到高等数学,高等数学我们就把它当作一个基础,一个基础中的基础。不光是人工智能,或者说机器学习,只要有数学参与的地方,我们都需要有高等数学的这个基础。那么具体到机器学习当中,我们在高等数学这一块儿用到的比较多的,可能包括求导,微分,这样的一些内容。所以高等数学是我们需要好好研究的内容。

本文整理自:博客园 - CDA-数据分析师,转载此文目的在于传递更多信息,版权归原作者所有。

推荐阅读