RNN CNN 机器学习

2021年11月24日 阅读数:11
这篇文章主要向大家介绍RNN CNN 机器学习,主要内容包括基础应用、实用技巧、原理机制等方面,希望对大家有所帮助。

CNN

http://blog.csdn.net/darkprin...git

http://blog.csdn.net/darkprin...github

http://blog.csdn.net/darkprin...web

http://blog.csdn.net/u0130880...算法

深度学习官方segmentfault

clipboard.png
深度学习连接☆ http://lib.csdn.net/base/deep...
算法连接:http://lib.csdn.net/base/data...网络

一些博客的笔记
http://mt.sohu.com/it/d201705...
http://www.cnblogs.com/TextEd...
http://blog.csdn.net/malefact...机器学习

RNN

  1. https://deeplearning4j.org/cn...函数

  2. http://blog.csdn.net/nxcxl88/...学习

本文主要的 reference 是 Google Brain 的 Chris Olah 和 Shan Carter 所写的关于注意力机制和RNNs 的 Blog, 原文里有很是漂亮的动态图,想看英文的读者推荐直接阅读原文。另外Olah的blog超级赞,能够说是必看。
Citation: Chris Olah & Shan Carter, “Attention and Augmented Recurrent Neural Networks”, Distill, 2016.
http://www.cnblogs.com/wangxi...ui

赞多多
http://blog.csdn.net/heyonglu...
http://blog.csdn.net/zouxy09/...

待看

RNN入门
http://blog.csdn.net/hjimce/a...

循环神经网络(Recurrent)——介绍
https://zhuanlan.zhihu.com/p/...

http://mt.sohu.com/20160910/n...
http://blog.csdn.net/zouxy09/...

深度学习笔记整理
http://www.sigvc.org/bbs/thre...

Deep Learning(深度学习)整理,RNN,CNN,BP
http://blog.csdn.net/justdoit...

一文读懂 CNN、DNN、RNN 内部网络结构区别
http://www.techweb.com.cn/net...

TensorFlow人工智能引擎入门教程之九 RNN/LSTM循环神经网络长短时间记忆网络使用
https://my.oschina.net/yilian...

Deep Learning源代码收集-持续更新…
http://blog.csdn.net/zouxy09/...

一文看懂系列之深刻理解 RNN——神经图灵机(附代码)
http://it.sohu.com/20161211/n...

从RNN到LSTM
http://blog.csdn.net/malefact...

深度学习之神经网络结构——RNN_理解LSTM
http://blog.csdn.net/victoria...

Deep learning:四十九(RNN-RBM简单理解)
http://www.cnblogs.com/tornad...

关于人工神经网络,你所应知道的一切都在这里了
http://synchuman.baijia.baidu...

人人都能用Python写出LSTM-RNN的代码![你的神经网络学习最佳起步]
http://blog.csdn.net/zzukun/a...

https://www.zhihu.com/questio...

http://cs231n.stanford.edu/

Tensflowcnn
http://nooverfit.com/wp/pycon...

机器学习

机器学习的经常使用方法,主要分为有监督学习(supervised learning)和无监督学习(unsupervised learning)。监督学习,就是人们常说的分类,经过已有的训练样本(即已知数据以及其对应的输出)去训练获得一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将全部的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的,也就具备了对未知数据进行分类的能力。在人对事物的认识中,咱们从孩子开始就被大人们教授这是鸟啊、那是猪啊、那是房子啊,等等。咱们所见到的景物就是输入数据,而大人们对这些景物的判断结果(是房子仍是鸟啊)就是相应的输出。当咱们见识多了之后,脑子里就慢慢地获得了一些泛化的模型,这就是训练获得的那个(或者那些)函数,从而不须要大人在旁边指点的时候,咱们也能分辨的出来哪些是房子,哪些是鸟。监督学习里典型的例子就是KNN、SVM。无监督学习(也有人叫非监督学习,反正都差很少)则是另外一种研究的比较多的学习方法,它与监督学习的不一样之处,在于咱们事先没有任何训练样本,而须要直接对数据进行建模。这听起来彷佛有点难以想象,可是在咱们自身认识世界的过程当中不少处都用到了无监督学习。好比咱们去参观一个画展,咱们彻底对艺术一无所知,可是欣赏完多幅做品以后,咱们也能把它们分红不一样的派别(好比哪些更朦胧一点,哪些更写实一些,即便咱们不知道什么叫作朦胧派,什么叫作写实派,可是至少咱们能把他们分为两个类)。无监督学习里典型的例子就是聚类了。聚类的目的在于把类似的东西聚在一块儿,而咱们并不关心这一类是什么。所以,一个聚类算法一般只须要知道如何计算类似度就能够开始工做了。k-means
http://blog.csdn.net/jwh_bupt...

github加强学习augmented
https://github.com/distillpub...

DeepMind背后的人工智能:深度学习原理初探
http://www.infoq.com/cn/news/...
https://deepmind.com/