深度学习资料

==========================================================

2021/4/7 16:06

网络表示学习方法:

网络表示学习(一)--DeepWalk、LINE、Node2Vec、HARP、GraphGAN   https://zhuanlan.zhihu.com/p/64991884
网络表示学习(二)--TADW、AANE、GAE、ANRL、DANE  https://zhuanlan.zhihu.com/p/319315330

gitlab实现代码: https://github.com/shenweichen/GraphEmbedding

推荐经典文章解读: https://www.zhihu.com/people/yue-84-23/posts

深度学习中损失函数

  1. Loss Function of Metric Learning(上) https://zhuanlan.zhihu.com/p/157495428
  2. Loss Function of Metric Learning(中) https://zhuanlan.zhihu.com/p/157561982
  3. Loss Function of Metric Learning(下) https://zhuanlan.zhihu.com/p/157737051
  4. 从最优化的角度看待Softmax损失函数 https://zhuanlan.zhihu.com/p/45014864
  5. 样本生而不等——聊聊那些对训练数据加权的方法 https://bbs.cvmart.net/articles/206/yang-ben-sheng-er-bu-deng-liao-liao-nei-xie-dui-xun-lian-shu-ju-jia-quan-de-fang-fa

==========================================================

2021/3/26 18:52

  1. 深度聚类论文代码集:  https://github.com/zhoushengisnoob/DeepClustering
  2. 自动编码AutoEncoders: https://blog.csdn.net/fengdu78/article/details/104337519
  3. github上pytorch入门: https://github.com/L1aoXingyu/pytorch-beginner

==========================================================

1、深度学习入门

1、斯坦福李飞飞教程(斯坦福CS231n—深度学习与计算机视觉)     http://study.163.com/course/introduction/1003223001.htm

2、深度学习入门  https://www.zhihu.com/question/26006703

3、 hjimce的专栏   http://blog.csdn.net/hjimce/article/details/50573444

4、李飞飞深度学习CS231n中文翻译  

https://zhuanlan.zhihu.com/p/21930884

5、cs224n自然语言处理

https://www.bilibili.com/video/av49994080

6、吴恩达深度学习

https://www.bilibili.com/video/BV164411m79z?from=search&seid=5271239314288521083

7、吴恩达深度学习笔记目标检测  

https://www.jianshu.com/p/e08520cb9367

 

2、学习模型

2.1、模型与模型参数

1、bert参数量计算

BERT的参数量计算   https://www.lizenghai.com/archives/33355.html

Bert/Transformer模型的参数大小计算  https://blog.csdn.net/weixin_43922901/article/details/102602557

BERT参数量计算 https://zhuanlan.zhihu.com/p/91903871

2、RNN

RNN的输入输出以及keras参数解析 https://zhuanlan.zhihu.com/p/47412782

3、CNN和Dense

Keras CNN model parameters calculation

https://stackoverflow.com/questions/44608552/keras-cnn-model-parameters-calculation

 

2.2 损失函数

1、损失函数binary_crossentropy和categorical_crossentropy区别:

 https://blog.csdn.net/klklklbk/article/details/106511117

2、深度学习中loss和accuracy的关系?  

https://www.zhihu.com/question/264892967 

 

2.3 embedding

  1. Efficient Estimation of Word Representations in Vector Space  https://zhuanlan.zhihu.com/p/21241739?refer=paperweekly
  2. Tag: Continuous Bag of Words (CBOW)      https://iksinc.online/tag/continuous-bag-of-words-cbow/
  3. Word2Vec Tutorial - The Skip-Gram Model  http://mccormickml.com/2016/04/19/word2vec-tutorial-the-skip-gram-model/

 

2.4 rnn

  1. rnn训练中的batch_input_shape  https://blog.csdn.net/weixin_42398658/article/details/90716908
  2. 从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史    https://zhuanlan.zhihu.com/p/49271699
  3. 乘风破浪的PTM:两年来预训练模型的技术进展 https://zhuanlan.zhihu.com/p/254821426
  4. BERT详解   https://zhuanlan.zhihu.com/p/48612853
  5. 《Attention is All You Need》浅读  https://kexue.fm/archives/4765                     苏剑林(bert4kars作者)系列文章都还不错
  6. BERT---容易被忽视的细节  https://zhuanlan.zhihu.com/p/69351731
  7. 论文解读:BERT模型及fine-tuning  https://zhuanlan.zhihu.com/p/46833276
  8. The Illustrated Transformer     https://jalammar.github.io/illustrated-transformer/
  9. 深度学习中的注意力模型(2017版) https://zhuanlan.zhihu.com/p/37601161

 

2.5  模型上线

  1. 机器学习上线(知乎)     https://www.zhihu.com/question/37426733/answer/786472048
  2. 如何解决推荐系统工程难题——深度学习推荐模型线上serving?     https://zhuanlan.zhihu.com/p/77664408
  3. tensorflow机器学习模型的跨平台上线     https://www.cnblogs.com/pinard/p/9251296.html
  4. lightgbm模型通过pmml存储,在java中调用     https://blog.csdn.net/luoyexuge/article/details/80087952
  5. PMML官方文档:     http://dmg.org/pmml/v4-1/GeneralStructure.html

3、tf和keras官方文档

3.1 基础文档

  1. tf官网 https://www.tensorflow.org/
  2. keras官方文档 https://keras.io/   
  3. keras中文  https://keras.io/zh/  中文质量稍差
  4. keras核心api  https://keras.io/api/
  5. keras中input_shape和input_tensor区别  https://stackoverflow.com/questions/56897864/how-do-i-use-input-shape-and-input-tensor-in-transfer-learning-in-keras
  6. keras ,model.predict的返回值  https://keras.io/guides/functional_api/#multi-input-and-multi-output-models
  7. How to get the output shape of a layer in Keras?  https://stackoverflow.com/questions/49527159/how-to-get-the-output-shape-of-a-layer-in-keras
  8. tf2.0文档  https://blog.csdn.net/ibelieve8013/article/details/103925071
  9. 一图看懂TensorFlow2.0系列 https://blog.csdn.net/ibelieve8013/article/details/103925071 
  10. RNN对于变长序列的处理方法, 为什么RNN需要mask https://blog.csdn.net/zwqjoy/article/details/95050794

 

3.2 数据处理

使用tf.data.Dataset.from_tensor_slices五步加载数据集  https://blog.csdn.net/rainweic/article/details/95737315

Keras之ImageDataGenerator(图像生成)函数的应用详解  https://blog.csdn.net/wuxulong123/article/details/107391873

 

3.3 预训练模型

Transfer learning and fine-tuning https://www.tensorflow.org/tutorials/images/transfer_learning

 

3.4 自定义

Keras自定义网络层Layer https://blog.csdn.net/qq_36655333/article/details/89333809

 

4、pytorch

  1. pytorcha官方   英文 https://pytorch.org/docs/stable/index.html       中文 https://pytorch-cn.readthedocs.io/zh/latest/
  2. nlp-tutorial https://github.com/graykode/nlp-tutorial  非常棒的pytorch项目
  3. distribution-is-all-you-need  https://github.com/graykode/distribution-is-all-you-need   与nlp-tutorial 同一个作者

  4. 新手如何入门pytorch?  https://www.zhihu.com/question/55720139   非常好的清单

  5. 中文入门教程  https://github.com/zergtant/pytorch-handbook

  6. with torch.no_grad() 详解
    https://blog.csdn.net/weixin_46559271/article/details/105658654
    torch.no_grad() 是一个上下文管理器,被该语句 wrap 起来的部分将不会track 梯度。

  7. PyTorch 学习笔记(八):PyTorch的六个学习率调整方法
    https://zhuanlan.zhihu.com/p/69411064

  8. Pytorch autograd,backward详解
    https://zhuanlan.zhihu.com/p/83172023

  9. PyTorch 的 backward 为什么有一个 grad_variables 参数?
    https://zhuanlan.zhihu.com/p/29923090

  10. 详解Pytorch 自动微分里的(vector-Jacobian product)
    https://zhuanlan.zhihu.com/p/65609544

  11. PyTorch Autograd
    https://towardsdatascience.com/pytorch-autograd-understanding-the-heart-of-pytorchs-magic-2686cd94ec95

  12. 带你少走弯路:强烈推荐的Pytorch快速入门资料和翻译(可下载)
    https://zhuanlan.zhihu.com/p/87263048

  13. What is the difference between autograd.backward() and autograd.grad()
    https://discuss.pytorch.org/t/what-is-the-difference-between-autograd-backward-and-autograd-grad/74663

无脑觉得真好用,keras虽然还行,但是还得加油

 

5、图像与视频

5.1 理论

  1. 图像滤波相关的处理(非常好): http://blog.csdn.net/zouxy09/article/details/49080029 
  2. matlib卷积和矩阵运算区别: http://blog.csdn.net/andrewseu/article/details/51783181
  3. 图像处理之理解卷积 http://blog.csdn.net/jia20003/article/details/7038938
  4. 如何通俗易懂地解释卷积?  https://www.zhihu.com/question/22298352

5.2 使用

  1. 如何使用 Keras 训练目标检测模型  https://flashgene.com/archives/55494.html

  2. 人脸识别系列文章   https://www.cnblogs.com/neo-T/category/951647.html

  3. 官方例子Object Detection with RetinaNet  https://keras.io/examples/vision/retinanet/

  4. 对于keras中GlobalAveragePooling2D的理解  https://blog.csdn.net/shangxiaqiusuo1/article/details/89026135

  5. 知乎tf系列文章  https://www.zhihu.com/column/c_1183794276223385600

 

6、深度与推荐

BERT4REC:使用Bert进行推荐  https://zhuanlan.zhihu.com/p/97123417

相关实现:https://paperswithcode.com/paper/bert4rec-sequential-recommendation-with#code

 

7、论文解读

  1. Identity Mappings in Deep Residual Networks     官方代码:https://github.com/KaimingHe/resnet-1k-layers     CIFAR-10分类
  2. 【Tensorflow 2.0 正式版教程】ResNet分类CIFAR-10  https://zhuanlan.zhihu.com/p/86665955   Identity Mappings in Deep Residual Networks自我的实现

8、研究机构和开源代码

8.1 研究机构

  1. 哈佛nlp组  http://nlp.seas.harvard.edu/
  2. 清华刘志远  http://nlp.csai.tsinghua.edu.cn/~lzy/index_cn.html    相关推荐非常好

8.2、开源代码

  1. 华为云使用案例  https://github.com/huaweicloud/ModelArts-Lab/tree/master/contrib
  2. 搭建small resnet50 https://github.com/kusiwu/Resnet50-Cifar10-Python-Kera

 

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小小她爹

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值