深度学习
文章平均质量分 61
早春的树长在理想三旬
一路狂奔的傻狍子
展开
-
2022秋招笔试加面经合集,不区分公司,不定期更新
9.9日mark秋招陆陆续续开始,我自己的定位首先是国企然后是互联网企业,这里把面试和笔试整理下,攒人品,废话不多说开始。首先说一下简历吧,很多同学可能投后台,测试,算法都是一个简历,这样对自己来说是很方便,但是用通用的简历就会导致面试官抓不住重点,投什么岗位做一份什么样的简历,如果是研究生同学,最好加上自己学术成果包括论文、专利,别觉得论文拿不出手就不写,因为hr也不知道你论文发的什么期刊,这点对想去国企的同学至关重要。这里就做一个汇总吧,把java和算法都写在一起,因为面试的公司太多,也记不原创 2021-09-09 20:10:54 · 518 阅读 · 0 评论 -
pytorch中一维卷积Conv1d简介
最近在使用pytorch中的一维卷积来对文本进行处理,进行文本分类任务,查阅了网上相关的博客还有api这里做一个总结。一维卷积,顾名思义就是在一维空间上进行卷积,通常用来处理时序的数据,卷积的过程如下图。进行卷积的数据形状为[batch_size,seq_len,embedding_dim],经过卷积以后变成了[batch_size,out_channels,sql_len-kernel_size+1]的形状,在卷积的时候是在最后一个维度进行的所以需要对数据进行点处理,具体如代码所示。imp.原创 2021-07-16 18:13:18 · 8102 阅读 · 3 评论 -
pytorch-LSTM情感分类
最近在学习pytorch也是正式从tensorflow转移到pytorch,因为很多论文的源码给出的都是pytorch为了方便自己学习比较新的模型和算法也是在不停的学习中,废话不多说正式开始今天的教程,之前给tensorflow挖的坑有时间了也会填上。这次使用的数据集比较大我也是放在了百度云盘需要的朋友可以自行获取,链接:https://github.com/JohnLeek/DeepLearning-study,源码放在了github,要是觉得不错对你有所帮助希望你帮忙给本博客点个赞,给我的githu原创 2021-07-13 08:57:49 · 1934 阅读 · 5 评论 -
pytorch中维度dim的理解
PyTorch 中对 tensor 的很多操作如sum、softmax等都可以设置dim参数用来指定操作在哪一维进行。PyTorch 中的 dim 类似于 numpy 中的 axis,这篇文章来总结一下 PyTorch 中的 dim 操作。首先看一下这个图,图中给出了维度标号,注意区分正负,从左往右数,括号代表的维度分别是 0 和 1 和 2,从右往做为 -3 和 -2 和 -1。待会儿会用到。图1括号之间是嵌套关系,代表了不同的维度。从左往右数,两个括号代表的维度分别是 0 ...原创 2021-06-30 21:53:45 · 2183 阅读 · 4 评论 -
pytorch中max和argmax
max和argmax名字上看起来很相似但是却大有不同max_num,index = torch.max(tensor,dim=?)会在指定的维度上返回最大的数以及其索引如下b = torch.tensor([[[3, 2], [1, 4]], [[5, 6], [7, 8]]])print(b)max_num,index = torch.max(b,dim=2)print(max_num)print(index)输出:tensor([[[3, 2], [1,原创 2021-06-30 09:44:05 · 536 阅读 · 0 评论 -
pytorch中LSTM的输入与输出理解
在阅读本篇博客之前希望你在LSTM方面有一定的知识储备,熟悉LSTM网络的内部结构,方便更好的理解pytorch中有关LSTM相关的api。一、参数理解这里我根据lstm的结构定义了一些参数,参数具体含义可以看注释batch_size = 10 #每个batch的大小seq_len = 2000 #模仿输入到LSTM的句子长度input_size = 30 #lstm中输入的维度hidden_size = 18 #lstm中隐藏层神经元的个数num_layers = 2 # 有多少层l原创 2021-06-29 08:56:56 · 2181 阅读 · 0 评论 -
tensorflow 自定义训练——eager模式,附带数据集制作
在前边的博客中我使用了tensorflow中kears模块来搭建神经网络,然后使用集成好的方法来进行训练,如model.fit(),从最简洁、最快速的方面来实现了神经网络,但是集成好的api灵活性不够,而且训练耗时比eager模式要多,所以在这里我对自定义训练做一个简单介绍,使用的数据集来源kaggle,链接:,如果不能下载用这个百度网盘链接:https://pan.baidu.com/s/1bg2981NUwwNZmkcz0w5WLw,提取码:fp34。完整代码在我的github,觉得我写的不错的可以给个原创 2020-07-10 21:24:37 · 963 阅读 · 1 评论 -
简洁明了的tensorflow2.0教程——CNN卷积网络的实现(cifar10数据集)
CNN通过本文你能了解到基本的卷积神经网络概念还有理论基础,通过使用keras编写一个简单的CNN模型我们可以实现对cifar10数据集的分类,掌握tensorflow搭建卷积神经网络的技巧,废话不多说,进入正文。相关代码还有数据集在我的github,链接https://github.com/JohnLeek/Tensorflow-study:,需要的自取,day4开头的部分为本节博客源码,觉得不错的可以给个star。一、卷积神经网络结构和相关概念(参考维基百科)因为卷积神经我网络概念很多,因为原创 2020-06-06 23:58:37 · 2562 阅读 · 3 评论 -
简洁明了的tensorflow2.0教程——用keras实现mnist数字识别
通过本文你可以快速学会使用keras搭建神经网络,只需40行代码构建神经网络实现mnist数据集手写数字的识别。MNIST数据集(Mixed National Institute of Standards and Technology database)是美国国家标准与技术研究院收集整理的大型手写数字数据库,包含60,000个示例的训练集以及10,000个示例的测试集.,图片大小为28*28。完整代码在我的github,链接:https://github.com/JohnLeek/Tensorflow-st原创 2020-05-29 13:28:31 · 2687 阅读 · 1 评论 -
win10下最好用的pytorch安装教程
废话不多说我们直接进入正题。1、首先确认你有无anaconda,有则跳过这一步,没有看我这篇博客安装anaconda,链接:https://blog.csdn.net/JohnLeeK/article/details/99582355,然后换源这样可以加快包的下载速度,参考我的这篇博客,链接:https://blog.csdn.net/JohnLeeK/article/details/1026864242、点击这个链接进入pytorch官网,https://pytorch.org/get-start原创 2020-05-27 18:25:52 · 1333 阅读 · 0 评论 -
简洁明了的tensorflow2.0教程——正则化操作
通常我们在训练神经网络模型的时候会出现过拟合的情况,模型训练的过于好,导致泛化能力不强。一般我们引入正则化可以解决过拟合问题,正则化分为两类,L1型正则化,L2型正则化。接下来我们做简单介绍并给出tensorflow代码实现。完整代码位于我的github,链接:https://github.com/JohnLeek/Tensorflow-study,day2_regularizationfree.py(未使用正则化),和day2_regularization_L2.py(使用正则化),数据集为dot.csv原创 2020-05-25 16:24:02 · 7124 阅读 · 1 评论 -
简洁明了的tensorflow2.0教程——实现鸢尾花分类
通过本文你可以学会神经网络最基本的用法,可以对tensorflow用法有初步的了解,实现神经网络入门,适用于有着在机器学习/或者深度学习有着理论基础,拥有一定python编程基础但是对神经网络实践缺少经验的coder,通过阅读并且自己完成本篇博客中的代码小白也能学会如何利用神经网络来实现简单的分类任务。这一讲源码在我的github,地址:https://github.com/JohnLeek/Tensorflow-study,源码文件为day1_iris_classfiction.py,觉得不错可以给个St原创 2020-05-24 00:28:55 · 4092 阅读 · 5 评论 -
最好用的win10环境下tensorflow2.0 CPU/GPU安装教程
最好用的win10环境下ensorflow2.0 CPU/GPU安装1、确保你的电脑安装了anaconda,如果没有参考我的这篇博客https://blog.csdn.net/JohnLeeK/article/details/995823552、对你的anaconda还有pip换源(非必要,可以跳过),这一步只是增加下载速度,参考我的这篇博客https://blog.csdn.ne...原创 2020-02-26 00:56:56 · 8849 阅读 · 6 评论