9月-11月学习总结
学过的东西一.机器学习1.线性回归(最小二乘法/梯度下降法)思想与代码会写,但是公式还不会背,代码只是实现了简单的例子。2.K近邻思想和代码会写,3.逻辑斯蒂回归...
一.机器学习
1.线性回归(最小二乘法/梯度下降法)
思想:
最小二乘法:
监督学习,求均方根误差最小,通过公式直接求出W,B
代码会写,但是公式还不会背,代码只是实现了简单的例子。
梯度下降法:
监督学习,也是用均方根公式,求导之后使用梯度下降公式求出新的梯度
会写代码,实现简答的例子
2.K近邻
近朱者赤近墨者黑,思想和代码会写,实现简单的例子
3.逻辑斯蒂回归
sigmoid函数,将数据变成01问题,但是代码还没有搞懂,有点多,也许是思想也没弄的太懂,而导致代码的思想记不住,不会写
4.决策树
香农熵,信息增益,看过ID3算法,当时搞懂了代码,但是貌似过了十天多(今天11.6)又不太记得了,ID3算法的思想就是通过香农熵计算出进入某个条件之前和之后的不同的熵值,然后作差值,求出信息增益,对所有待进入的条件都做这个操作,判断出信息增益最大的作为要选择的条件。CART4.5貌似就是对ID3进行了一些剪枝操作(没咋看)
5.K均值
类似于KNN,无监督学习,也使用欧氏距离或者曼哈顿距离(曼哈顿距离貌似忘记了,等会就看一下),通过给出初始质点,逐渐在不同的数据中找出一个所有数据到这个点都相对最近的质点。
6.TDIDF(词频-逆文档频率)
有区别出文档中字词的重要性的作用。实现过代码,但是公式忘记了
7.LFM(隐语义模型)
感觉挺挺学的东西。还分了几种模型(PLSA,LDA,SVD),给我的感觉就是将矩阵降维度,然后再升维度,然后将本来矩阵某个地方没有值的地方填上值。没咋研究,实现了一下代码,但是里边的公式没背,代码也自己写不下来。至于如何降维,好像有两种方法(交替最小二乘法和梯度下降)
8.朴素贝叶斯
对于一个数据点(x,y),分别计算属于分类1和分类2的概率,取概率大的分类作为数据点(x,y)的分类.还要学条件概率(早知道考研考学硕了,淦),这个代码实现了之后本来差不多熟悉了,结果现在又忘了,高估自己了。做了一个朴素贝叶斯对文档分类的例子
二.深度学习
主要看了《深度学习与TensorFlow实战》这本书,苟在宿舍两个星期,300页看了200页了。
对着目录回忆下,
第一章主要讲了机器学习到深度学习,比较水
第二章讲的是神经网络,讲了感知机,感知机咋学习,激活函数(开始用的是越阶函数sgn(x)),怎么实现与和或操作,以及只有输入输出层的感知机不能实现异或操作,有20年的低谷期,然后讲了多层前馈网络咋样,是怎么通过隐藏层解决异或问题的,常用的激活函数(Sigmoid,Tanh,ReLU(这个好像对数据很多的时候很好用,也是tf框架默认的激活函数))
第三章讲TensorFlow框架,叭叭的讲了一会TF的好处(实用主义感觉也没啥用)
第四章讲TF的语法了,讲了张量(其实就是让我们用大数据的眼光,提升维度,以前关注一个数据的计算,现在关注一个矩阵的计算,挺赞的),然后是TF的数据类型,有的Python的数据类型不适合大数据的计算,TF就自己改了改,以及一些怎么创建常/变量,怎么生成张量的方法,怎么切片(和python没啥差别),怎么对张量升维降维,怎么合并/分割张量
第五章讲了BP算法,现在再看有点懵。但是优化算法就是梯度下降法,只是分成了(批量BGD,随机SGD,小批量MGD)哦BP就是反向传播,先是在神经网络中正向的求一次各个神经元的值,然后求出误差,再反向修改各个神经元的权值,逐步找到最优的权值。又要用到好多公式,这里看来要背一下了。
第六章是讲如何使用TF的keras模块的,如何使用TF的经典DataSet,如何对DataSet进行变换,然后是如何是一个深度学习的HelloWorld-手写数字识别 MNIST
总结
奋斗奋斗奋斗!
更多推荐
所有评论(0)