2017CS231n李飞飞深度视觉识别笔记(转载&原创,转载部分全部以链接形式给出)
2017CS231n李飞飞深度视觉识别笔记(一)——计算机视觉概述和历史背景2018年07月09日 20:26:35 献世online 阅读数:1651更多所属专栏: 机器学习与深度学习版权声明:本文为博主原创文章,未经博主允许不得转载。https://blog.csdn.net/qq_34611579/article/details/80976671第一章 计算机视觉概述和历史背景课...
(一)计算机视觉概述和历史背景
(二)图像分类
- 曼哈顿距离(Manhanttan distance)和欧式距离(Euclidean distance)
曼哈顿距离:两个点在标准坐标系上的距离各个坐标轴距之和;
欧式距离:勾股定理计算的两点距离(包括多维空间上)
- 高斯滤波总结:
(三)损失函数和优化
1.损失函数(Loss function):用来评估 模型预测值f(x)和真实值y之间的不一致程度,常用L(Y,f(x))表示。损失函数越小,模型的鲁棒性越好。损失函数是经验风险的核心部分。
其中,前面的均值函数表示经验风险函数,L()函数则表示的为损失函数,后面加的为正则项(regularizer)亦称之为惩罚项(penalty term),整个式子目的 为求目标函数的θ最小值。
常用损失函数:
1.合页损失(Hinge Loss):常见于SVM中;
2.交叉熵损失(Cross Entropy Loss, Softmax Loss):用于Logistic回归以及Softmax分类中;
3.平方损失(Square Loss):主要使用于最小二乘法中;
4.指数损失(Exponential Loss):主要使用在Adaboost集成学习算法中;
5.其他损失(如0~1损失, 绝对值损失)。
常用损失函数详解:
https://blog.csdn.net/zhangjunp3/article/details/80467350
正则化: 正则化的宏观理念就是对模型做的任何事情主要目的是为了减轻模型的复杂度,而不是去试图拟合数据。
SVM损失函数
多项逻辑回归损失函数或称为SoftMax损失函数 (在深度学习中使用较多)
(四)神经网络
反向传播 & 神经网络
https://blog.csdn.net/qq_34611579/article/details/81023228
(五)卷积神经网络
(六) 训练神经网络(上)
(七)训练神经网络(下)
(八) 深度学习软件
(九)CNN框架
卷积神经网络概念与原理:
https://blog.csdn.net/yunpiao123456/article/details/52437794
(十)循环神经网络
https://blog.csdn.net/chandanyan8568/article/details/81843698
RNN算法简介(详细易懂):
(十一)图像识别与分割
- 课时一:转置卷积
卷积和转置卷积(相当详细且易于理解):
https://blog.csdn.net/LoseInVain/article/details/81098502
转置卷积时存在棋盘效应(详细原理以及抑制方法):
https://distill.pub/2016/deconv-checkerboard/
- 课时二:定位
- 课时三:物体识别
前馈模型
YOLO
SSD
- 课时四:物体分割
Mask R-CNN (目前解决物体分割最好的方法),其和Faster R-CNN相似,属于多步处理。
(十二)可视化与神经网络
[转]如何在本地完成CS231n作业:
[强烈推荐]适合于小白的教程:
[转]CS231n代码讲解
[转]python pdb调试器使用
cs231n assignment(一) features
相关资料:
- 李飞飞 CS231n课程笔记汇总:(另外一个大牛的汇总)
- 计算机视觉:算法与应用 (书籍) 下载链接:
更多推荐
所有评论(0)