機械学習 Coursera
https://ja.coursera.org/learn/machine-learning
日本語字幕もあり、最もおすすめ
arXivTimes
https://github.com/arXivTimes/arXivTimes
AISIA AI技術をぱっと理解する(基礎編)連載Blog
https://products.sint.co.jp/aisia/blog
非常に分かりやすくて、勉強になりました。
Variational Autoencoder 徹底解説
https://qiita.com/kenmatsu4/items/b029d697e9995d93aa24
Progressive Growing of GANs for Improved Quality, Stability, and Variation
https://arxiv.org/abs/1710.10196
Arxiv Sanity Preserver
http://www.arxiv-sanity.com/
AIによるアニメ中割生成 – DeNAの「構造的生成学習」を使用したアニメの中割生成技術!
https://3dnchu.com/archives/dena-anime-ai-frame-generated-tech/
Pythonでの数値計算ライブラリNumPy徹底入門
https://deepage.net/features/numpy/
械学習 入門コースの決定版!機械学習エンジニアを目指すならcodexa
https://www.codexa.net/
Introduction to Deep Learning
http://introtodeeplearning.com/
機械学習プロジェクトが失敗する9つの理由
https://tjo.hatenablog.com/entry/2018/08/03/080000
C++ヘッダだけでDeep Learning、tiny-dnnの紹介
https://qiita.com/nyanp/items/11c6bb6fb539486c5069
強化学習の基礎的な考え方と問題の分類
https://www.slideshare.net/yukono1/ss-129668388
horovodのご紹介 ~Tensorflowの分散処理(Distributed Tensorflow)を簡単に実現!!
https://qiita.com/kurosawa1/items/5aeb9efb2eceeb9c8206
Optimizer : 深層学習における勾配法について
https://qiita.com/tokkuman/items/1944c00415d129ca0ee9
深層学習の勾配法 (SGD, Momentum SGD, AdaGrad, RMSprop, AdaDelta, Adam) とは
Optimizer : 最適化手法の検証
https://qiita.com/tokkuman/items/33c66fcff7337a1c0fa8
Residual Network(ResNet)の理解とチューニングのベストプラクティス
https://deepage.net/deep_learning/2016/11/30/resnet.html
U-NetでPascal VOC 2012の画像をSemantic Segmentationする
https://qiita.com/tktktks10/items/0f551aea27d2f62ef708
tensorflowで誤差関数を実装
https://qiita.com/YudaiSadakuni/items/918b08e9c1fb497c96c3
ディープラーニングによる画像の拡大技術
https://www.nttpc.co.jp/gpu/article/technical02.html
【TensorFlow入門】C++から使ってみよう
https://www.sejuku.net/blog/54964
深層学習を使用した単一イメージ超解像処理
https://jp.mathworks.com/help/images/single-image-super-resolution-using-deep-learning.html
Fast and Accurate Image Super Resolution by Deep CNN with Skip Connection and Network in Network
https://arxiv.org/abs/1707.05425
Deep Convolution Networks for Compression Artifacts Reduction
https://arxiv.org/abs/1608.02778