《白话大数据与机器学习》读书笔记2

《白话大数据与机器学习》读书笔记2

信息论

信息

信息是被消除的不确定性

信息量

对数:如果$a$的$x$次方等于$N$(a>0,且a不等于1),那么数$x$叫做以$a$为底$N$的对数(logarithm),记作$x=\log_aN$。其中,a叫做对数的底数,N叫做真数。

事件出现的概率越小,信息量越大,即信息量的多少是与事件发生频率程度大小(即概率大小)恰好相反的。公式如下:

香农公式

单位 bps

其中:

  • B 是码元速率的极限值 (B=2H,H 为信道带宽,单位为 Baud)
  • S 是信号功率(瓦)
  • N 是噪声功率(瓦)

热力熵

信息熵

其中,$x$可以当成一个向量,就是若干个$x_i$产生的概率乘以该可能性的信息量,然后各项做加和。

信息越确定,越单一,信息熵越小;

信息越不确定,越混乱,信息熵越大。

多维向量空间

向量(Vector)

几何向量也称欧几里得向量,通常简称向量、矢量,是指具有具体大小和方向的几何对象表示。

向量实例:(’北京’,’电风扇’)

向量定义:(地区,产品类别)

矩阵(Matrix)

A是一个$m\times n$矩阵。在本例中,每个矩阵的元素$a_{mn}$都是一个数字。

矩阵加法,减法

同型矩阵可以做加减法,对应元素做加减法即可,结果矩阵维度不变。

矩阵的数乘

矩阵数乘就是矩阵每个元素都乘以这个数乘倍数。

矩阵的转置

矩阵转置记做$A^T$,行变列,列变行即可。

矩阵的内积

回归

回归分析的英文是Regression,单词原型的regress大概的意思是”回退,退化,倒退”。回归借用了”倒退,倒推”的含义。简单说就是”由果索因”的过程。

线性回归(Linear Regression)

线性回归是利用数理统计学中的回归分析来确定两种或者两种以上变量间相互依赖的定量关系的一种统计分析方法。其表达形式如下:

$e$为误差服从均值为0的正态分布。

从大量的函数结果和自变量反推回函数表达式的过程就是回归

拟合

把平面上一系列的点用一条光滑的曲线连接起来的过程叫做拟合

残差分析

计算让e最小的过程就是残差分析。定性地说就是在拟合的过程中,每一个点所产生的误差e大部分在0附近,而越远离0误差的e越少越好。

典型的用来进行线性回归中系数猜测的方法是–最小二乘法

过拟合

危害:

  1. 描述复杂
  2. 失去泛化能力,所谓泛化能力就是通过机器学习得到的模型对未知数据的预测能力,即应用于其他非训练样本的向量时的分类能力。

造成的原因最常见的两种:

  1. 训练样本太少
  2. 力求“完美”

欠拟合

原因:

  1. 参数太少
  2. 拟合不当
更新于

本文遵守 CC-BY-NC-4.0 许可协议。

Creative Commons License

欢迎转载,转载需注明出处,且禁止用于商业目的。