Google相比国内的搜索引擎来说在世界上都是非常有名的 ,其团队或在技术算法上都远超于国内,据悉,Google项目教育团体官方宣布称已经发布了一种多语种的Google机器学习词汇表,它列出了机器学习的一般术语和术语“TensorFlow”的定义。语言版本包括西班牙语、法语、韩语和简体中文。

A/B 测试 (A/B testing)

一种用于比较两种或两种以上技术的统计方法,通常将当前技术与新技术进行比较。A/B测试的目的不仅在于确定哪种技术更有效,还有助于了解相应的差异是否具有显著的统计学意义。A/B测试通常是两种技术的测量,但它也适用于任何有限数量的技术和测量。

准确率 (accuracy)

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义如下:

准确率=正确的预测数样本总数

在二元分类中,准确率的定义如下:

准确率=真正例数+真负例数样本总数

激活函数 (activation function)

一种函数(例如 ReLU 或 S 型函数),用于对上一层的所有输入求加权和,然后生成一个输出值(通常为非线性值),并将其传递给下一层。

AdaGrad

一种先进的梯度下降法,用于重新调整每个参数的梯度,以便有效地为每个参数指定独立的学习速率。

ROC 曲线下面积 (AUC, Area under the ROC Curve)

一种会考虑所有可能分类阈值的评估指标。

ROC 曲线下面积是,对于随机选择的正类别样本确实为正类别,以及随机选择的负类别样本为正类别,分类器更确信前者的概率。

反向传播算法 (backpropagation)

在神经网络上进行了梯度下降法的主要算法。该算法将计算每个节点的转发方式(和缓存)的输出值,然后按下反向传播方式,将图形计算损失函数值与各参数的偏导数相对应。

基准 (baseline)

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

批次 (batch)

模型训练的一次迭代(即一次梯度更新)中使用的样本集。

批次规模 (batch size)

一批样品的数量。例如,SGD的批量大小为1,小批量通常在10到1000之间。在训练和外推过程中,批次的尺寸通常是固定的;但是,TensorFlow允许动态批处理大小。

偏差 (bias)

从原点截取或偏移。偏差(也称为偏差)在机器学习模型中被表示为b或w0。例如,在下列公式中,偏差为:请勿与预测偏差混淆。

二元分类 (binary classification)

输出两个互斥类别之一的分类任务。例如,一个评估和输出“垃圾邮件”或“非垃圾邮件”电子邮件的机器学习模型是一个二进制分类器。

分桶 (bucketing)

将一个特性(通常是一个连续的特性)转换成多个二进制特性(称为bucket或box),通常基于一个值间隔。例如,您可以将一个温度区间分割为一个离散的盒子,而不是一个连续的浮点特征。假设温度数据可以精确到一个小数位,你可以在一个盒子里所有的温度在0.0到15.0度之间,在第二个盒子里所有的温度在15.1到30.0度之间,在第三个盒子里所有的温度在30.1到50.0度之间。

校准层 (calibration layer)

预测调整,通常是为了减少预测偏差。调整后的预测和概率应与所观察到的标签集一致。

候选采样 (candidate sampling)

使用函数(例如,softmax)来计算所有正类别标签的概率的训练优化,但对于负类标签,只计算随机样本的概率。例如,如果“小狗”和“狗”的标签样本,“小狗”和“狗”类别输出和其他类别(cat, lollipops,栅栏)的候选样本预测随机子集的概率和相应的损失。这种抽样是基于观念的,只要是范畴总是适当的加强,消极的范畴就可以从消极的增长中学习到低频度,它在实际情况中被观察到。候选抽样的目的是通过不计算所有负面类别的预测结果来提高计算效率。



相关文章