• 绪论:初识机器学习
  • 单变量线性回归
  • 线性代数回顾

绪论:初识机器学习

机器学习:

计算机从经验E中学习,解决一个任务T,进行某一性能度量P,通过P测定,在T上的表现因经验E而提高
——Tom Mitchell

在没有明确设置的情况下,使计算机具有学习能力的研究领域
——Arthur Samuel

机器学习:

  • 监督学习(Supervised Learning)

给算法一个数据集,其中包含正确答案,算法给出预测值
Eg:分类问题;回归问题

  • 无监督学习(Unsupervised Learning)

给算法一个数据集,其中包含正确答案,算法给出预测值
Eg:聚类问题(分类+标签);鸡尾酒会算法(声音分离)

单变量线性回归

NO.6

m = 训练样本的数量
x = 输入变量 / 特征
y = 输出变量 / 目标变量
(x,y) = 一个训练样本
(x(i),y(i)) = 第 i 个训练样本

监督工作:
工作流程

NO.7

代价函数:
在这里插入图片描述
J(θ0,θ1J(θ_0,θ_1J(θ0,θ1):代价函数(cost function)/平方误差函数(square error function)

NO.9 梯度下降(Gradient Descent)

also called:‘Batch’ Gradient Descent (这个是全览整个数据集)
在这里插入图片描述
会有局部最优解
在这里插入图片描述
注:

  • := 赋值运算符
  • α Learning rate 学习率(控制速度)
  • for j=0 and j=1 simultaneously update θ0,θ1θ_0,θ_1θ0,θ1 (同步更新)
    在这里插入图片描述
    注:顺序不可改,需要同步!
NO.11

在这里插入图片描述
注:

  • 若α过大,会跳过最低点,可能会导致发散
  • 由于各点斜率不同,离最低点越近,斜率的绝对值越小,所以变化越慢,无需改变α
NO.12

在这里插入图片描述
求偏导:
在这里插入图片描述
带回得:
在这里插入图片描述
although 梯度下降会有局部最优解,但是,实际上,我们用到的代价函数,总是凸函数(convex function),只有全局最优

线性代数回顾

大写字母:矩阵
小写字母:数字、标量、向量

矩阵相加:对应元素相加
矩阵乘除实数:每个数与之 ×/÷×/ ÷×/÷
矩阵相乘:Aij:A1的行(i)×A2的列(j)A_{ij}:A_1的行(i)×A_2的列(j)Aij:A1(i)×A2(j) [ 对应求和 ]
(m×n) × (n×1) -> (m×1)
A×B≠B×AA×B ≠ B×AA×B̸=B×A
A×B×C=(A×B)×C=A×(B×C)A×B×C = (A×B)×C = A×(B×C)A×B×C=(A×B)×C=A×(B×C)
A⋅A−1=A⋅A−1=IA·A^{-1} = A·A^{-1} = IAA1=AA1=I

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐