为什么需要机器学习?

有些任务是直接编码的更复杂,我们不能处理所有的微妙和简单的编码,所以机器学习是必要的。相反,我们为机器学习算法提供了大量的数据,这使得算法能够不断地探索数据并建立模型来解决问题。例如,在新的混沌照明场景中,三维物体从一个新的角度被识别;编写一个程序来计算信用卡交易中欺诈的概率。

机器学习方法如下:它不为每个特定的任务编写相应的程序,而是收集大量实例,指定给定输入的正确输出。算法使用这些例子来生成程序。与手写的程序不同,该程序可能包含数百万的数据,以及新的案例和经过训练的数据。如果数据发生变化,程序将对新数据进行培训和更新。很多计算比手工支付要便宜得多。

机器学习的应用如下:模式识别:识别实际场景的面部或表情、语言识别。

识别异常:信用卡交易顺序异常,核电厂传感器读数模式异常。

预测:未来股价或货币汇率,个人观影喜好。

什么是神经网络?

神经网络是一种通用的机器学习模型,是一套特定的算法,在线机器学习领域引起了一场革命,它本身就是一种正常的函数逼近,可以应用于任何机器学习到将输入映射到输出的复杂问题。一般来说,神经网络结构可以分为三类:

前馈神经网络:它是最常见的类型。第一层是输入,最后一层是输出。如果存在多个隐藏层,则称为“深层”神经网络。它可以计算事件之间一系列类似的转换,每一层神经元活动是下一层非线性函数。

循环神经网络:在节点之间形成一个循环图,可以返回到箭头方向的原点。循环神经网络具有复杂的动态、硬的训练,它模拟连续的数据,相当于每段时间的网络深度的一个隐藏层,除了在每一个时间片上使用相同的权重,也有输入。网络可以记住关于隐藏状态的信息,但是很难用它来训练网络。

对称连接网络:以及神经网络的循环,但是单元之间的连接是对称的(即两个方向上相同的连接权),它比循环神经网络分析更容易,但功能上有局限性。一个没有隐藏单元的对称连接网络被称为Hopfiels网络,一个带有隐藏单元的对称连接网络被称为“bozmann machine”。

感知机(Perceptron)

作为第一代神经网络,感知机是唯一一个神经元的计算模型。将第一个原始输入向量输入一个特征向量,手写过程定义特征,然后学习如何得到每个特征权重的标量,如果一个标量值高于某个阈值,被认为是一个正输入向量是目标类样本。标准感知器结构是前馈模型,即输入被传输到节点,输出结果在处理后生成:从底部输入,从顶部输出,但它也有其局限性:一旦确定了笔迹编码特征,它就受到了限制。这对于感知器来说是毁灭性的,尽管转换与翻译相似,但模式识别侧重于识别模式。如果这些转换形成一个组,学习的感知器部分不能学会识别,因此需要多个特征单元识别子模式。

没有隐藏单元的网络在输入和输出映射建模方面也有很多限制。由于线性叠加仍然是线性的,并且固定的非线性输出不能产生这种映射,所以不能解决线性单元层的加法。



相关文章