深度学习的四大方向
深度学习深度学习(神经网络的升级版)≈神经网络;是建模方式深度学习网络(巨大水管网络)目的:处理信息算法:卷积神经网络CNN、循环神经网络RNN、生成对抗网络GANs、深度强化学习RL卷积神经网络价值:能够将大数据量的图片有效的降维成小数据量(并不影响结果)、能够保留图片的特征(类似人类的视觉原理)基本原理:卷积与池化层循环卷积层 – 主要作用是保留图片的特征,类似于一个图片打包、只显示一个图层池
·
深度学习
深度学习(神经网络的升级版)≈神经网络;是建模方式
深度学习网络(巨大水管网络)
目的:处理信息
算法:卷积神经网络CNN、循环神经网络RNN、生成对抗网络GANs、深度强化学习RL
卷积神经网络
价值:能够将大数据量的图片有效的降维成小数据量(并不影响结果)、能够保留图片的特征(类似人类的视觉原理)
基本原理:卷积与池化层循环
- 卷积层 – 主要作用是保留图片的特征,类似于一个图片打包、只显示一个图层
- 池化层 – 主要作用是把数据降维,可以有效的避免过拟合
- 全连接层 – 根据不同任务输出我们想要的结果
实际应用:
- 图片分类、检索
- 目标定位检测
- 目标分割
- 人脸识别
- 骨骼识别
循环神经网络
能够有效处理序列数据的算法。例LSTM、GRU
特定:
- 长期信息可以有效的保留
- 挑选重要信息保留,不重要的信息会选择“遗忘”
应用:
- 文本生成
- 语音识别
- 机器翻译
- 生成图像描述
- 视频标记
生成对抗网络
无监督学习
由两个重要部分构成:
- 生成器(Generator):通过机器生成数据(大部分情况下是图像),目的是“骗过”判别器
- 判别器(Discriminator):判断这张图像是真实的还是机器生成的,目的是找出生成器做的“假数据”
优点:
- 能更好建模数据分布(图像更锐利、清晰)
- 理论上,GANs 能训练任何一种生成器网络。其他的框架需要生成器网络有一些特定的函数形式,比如输出层是高斯的。
- 无需利用马尔科夫链反复采样,无需在学习过程中进行推断,没有复杂的变分下界,避开近似计算棘手的概率的难题。
缺点:
- 难训练,不稳定。生成器和判别器之间需要很好的同步,但是在实际训练中很容易D收敛,G发散。D/G 的训练需要精心的设计。
- 模式缺失(Mode Collapse)问题。GANs的学习过程可能出现模式缺失,生成器开始退化,总是生成同样的样本点,无法继续学习。
应用:
- 文字到图像转换;文字到图像转换(地图)
- 生成人脸照片
- 提高图片分辨率
- 修复、编辑图片
- 图片生成3D模型
算法:
- GAN:生成对抗网络
- DCGAN:深度卷积生成对抗网络
- CGAN:条件生成对抗网络
- 循环GAN:循环生成对抗网络
- CoGAN:耦合生成对抗网络
- ProGAN:生成对抗网络的渐进式增长
- WGAN:Wasserstein 生成对抗网络
- SAGAN:自注意力生成对抗网络
- BigGAN:大型生成对抗网络
- StyleGAN:基于风格的生成对抗网络
深度卷积生成对抗网络
卷积=适合图像、生成对抗=适合生成的东西
卷积可以视为通过相乘的方式将两个函数进行混合
深度强化学习
解决的问题是智能体(agent,即运行强化学习算法的实体)在环境中怎样执行动作以获得最大的累计奖励
马尔可夫过程的特点是系统下一个时刻的状态由当前时刻的状态决定,与更早的时刻无关。
更多推荐



所有评论(0)