深度学习
文章平均质量分 55
基础知识程序练习与实践
维他柠檬可乐
学习数据分析,深度学习,机器学习.努力努力再努力.
展开
-
关于Anaconda常用的命令
conda create -n your_env_name python=X.X(2.7、3.6等)命令创建python版本为X.X。名字为your_env_name的虚拟环境。your_env_name文件可以在Anaconda安装目录envs文件下找到。一般包是安装在默认环境下的,当你想把包安装在你的环境下路径你可以这样子。在Linux上:conda activate source env_names。在windows上:conda activate env_names。,一种是在windows上。原创 2024-05-08 21:49:53 · 237 阅读 · 0 评论 -
Texlive2020基础教程和TeXstudio2020的安装
1.Texlive2020安装教程和Texstudio2020安装教程.2.Texstudio的简单实用原创 2020-12-14 21:29:43 · 1218 阅读 · 0 评论 -
8月份第一周看论文笔记
论文1:启用缓存的D2D网络中用于内容缓存的深度强化学习方法Li L, Xu Y, Yin J, et al. Deep Reinforcement Learning Approaches for Content Caching in Cache-Enabled D2D Networks[J]. IEEE Internet of Things Journal, 2020, 7(1): 544-557....原创 2020-07-29 21:57:43 · 191 阅读 · 0 评论 -
学习支持向量机
除了在Matlab中使用PRTools工具箱中的SVM算法,Python中也可以使用支持向量机做分类(做分类有什么用)。因为Python中的sklearn库也集成了SVM算法。一,导入sklearn算法包Scikit-Learn库已经实现了所有基本机器学习的算法,具体使用详见官方文档说明:http://scikit-learn.org/stable/auto_examples/index.ht...原创 2020-02-15 14:42:02 · 284 阅读 · 0 评论 -
深度学习-自编码器
1.程序理解argparse:argparse模块官方文档:argparse是一个Python模块:命令行选项、参数和子命令解析器argparse模块可以让人轻松编写用户友好的命令行接口。程序定义它需要的参数。然后argparser将弄清如何从sys.argv解析出那些参数。argparse模块还会自动生成帮助和使用手册,并在用户给程序传入无效参数时报出错误信息。使用流程:1.解析器:parser = argparse.ArgumentParser(description='Proc原创 2021-12-20 11:37:10 · 881 阅读 · 0 评论 -
文本特征处理
1文本特征处理前期打基础:程序:Word2Vec的PyTorch实现理论知识:word2vec:神经语言模型(NNLM), CBOW, skip-gramCBOW最强理解跳字模型(skip-gram)和连续词袋模型(CBOW)1.1 理论了解词向量-word2vec.(word2vec是一个工具,主要包含两个模型:跳字模型(skip-gram)和连续词袋模型(CBOW),)自然语言是一套用来表达含义的复杂系统。在这套系统中,词是表义的基本单元。在机器学习中,如何使用向原创 2021-12-20 11:36:43 · 544 阅读 · 0 评论 -
文本特征提取记录
博客:一,使用CountVectorizer TfidfVectorizer中文处理原创 2021-10-27 20:57:12 · 83 阅读 · 0 评论 -
python基准时间
一,网络时间和本地时间,以及该网站的时间.该网站的时间和网络时间一致.原创 2020-09-16 14:58:27 · 202 阅读 · 0 评论 -
Latex-画图,插表等
一,LAtex做表格latex表格制作参考一;Latex的基础知识参考;画图画图单排,双排。二,画图颜色颜色参考一;背景格式美化;原创 2021-07-28 16:14:57 · 387 阅读 · 0 评论 -
深度学习-激活函数:Sigmod&tanh&Softplus&Relu详解
参考:Sigmod&tanh&Softplus&Relu详解原创 2021-07-19 17:03:21 · 236 阅读 · 0 评论 -
TeXstudio-基础操作学习
TeXstudio-画图(并排,并行)画图(并行) \begin{figure}[htbp] \centering \subfigure[LSTM mse.]{ \begin{minipage}[t]{0.5\linewidth} \centering \includegraphics[width=1.80in]{paper_img/train_mse.png} %\caption{fig1} \end{min.原创 2021-05-14 20:06:51 · 1406 阅读 · 0 评论 -
python-读取和保存npy文件
读取和保存npy文件import numpy as np# .npy文件是numpy专用的二进制文件arr = np.array([[1, 2], [3, 4]])# 保存.npy文件np.save("../data/arr.npy", arr)print("save .npy done")# 读取.npy文件np.load("../data/arr.npy")print(arr)print("load .npy done")应用在神经网络权重的保存在训练自己神经网.原创 2021-05-07 20:17:43 · 977 阅读 · 0 评论 -
花书-卷积神经网络
知识框架卷积池化(引入了平移不变性,)全局连接层(多层感知机)卷积神经网络应用(分类上)图像分类大赛(ResNEt网络比人类识别图像的性能还要好,深度也越来越深)各大CNN模型重难点参考资料:(CNN祖爷爷-LeNet,ResNet)本章的目的是说明卷积网络提供的各种工具。9卷积网络9.1卷积运算卷积神经网络,是一种用来处理具有类似网络结构的数据的神经网络。例如时间序列(认为是在时间轴上有规律地采样形成的一维原创 2021-04-21 13:52:42 · 642 阅读 · 0 评论 -
花书-概率论
概率论——深度学习花书第三章(算法的参考模板离不开花书的格式)3.1背景:概率论是研究随机性和不确定性的科学,在人工智能领域主要有两大应用:1. 概率论可以指导人工智能模型所需模拟或近似的概率分布。2.概率与统计可以帮助我们分析模型的预测的准确性。可以说,线性代数和概率论是人工智能系统的两大数学基石,这一章对于理解很多机器学习模型的背后驱动力是关键的。许多人,尤其是受了很多理工科教育的人都对世界持机械决定论的观点:只要给定初始条件,宇宙万物走势都可以确定性的运行,不存在任何随机性。例如爱因斯坦曾原创 2021-04-02 23:39:37 · 189 阅读 · 0 评论 -
花书-机器学习基础
线性代数-深度学习花书第二章掌握好线性代数对于理解和从事机器学习算法相关工作是很有必要的,尤其对于深度学习算法而言。基本概念:学习线代,会涉及以下几个数学概念:标量(scalar):标量就是单一的数字,比如单一的整数,实数,有理数等都是标量。 向量(vector)(矢量):可以看出一组标量形成的一维数组,如有n个实数组成的向量:矩阵(matrix):矩阵是二维数组,所以每个元素需要行和列的指标来标记.张量(tensor):张量是多维数组,当它是0时是标量,一维时是向量,二维时是原创 2021-03-31 17:30:09 · 745 阅读 · 0 评论 -
预测评价指标:MSE,RMSE,MAE,MAPE,SMAPE
目录前言MSERMSEMAPESMAPEPython程序前言分类问题的评价指标是准确率,回归算法的评价指标是MSE,RMSE,MAE.测试数据集中的点,距离模型的平均距离越小,该模型越精确。使用平均距离,而不是所有测试样本的距离和,因为受样本数量影响。假设:MSE均方误差(Mean Square Error)范围[0,+∞],当预测值与真实值完全吻合时等于0,即完美模型;误差越大,该值越大,模型性能越差。RMSE均方根误差(Root Mean原创 2021-03-11 16:18:12 · 34625 阅读 · 2 评论 -
交叉熵损失函数
目录1交叉熵损失函数(Cross Entropy loss):1.1交叉熵损失函数公式:1.2交叉熵损失函数推导过程:1.3 交叉熵损失函数的特殊值1交叉熵损失函数(Cross Entropy loss):1.1交叉熵损失函数公式:y是真实的标签值(正类值为1,负类值为0),y`是预测的概率值(y·∈(0,1)).它表征真实样本标签和预测概率之间的差值.1.2交叉熵损失函数推导过程:举个二分类例子,要么有打球,要么没有打球.假设打球的标签值为1,没打球的标签.原创 2021-01-07 15:19:35 · 23399 阅读 · 0 评论 -
(总)基于Cifar10数据集的LeNet与ResNet网络了解这两个网络
Pytorch中文文档Lenet5网络程序:主程序:criteon = nn.CrossEntropyLoss().to(device) #交叉熵函数交叉熵函数.(针对图像???)optimizer = optim.Adam(model.parameters(),lr=1e-3) #Module.parameters()函数实现与网络参数管理为了使用torch.optim,先构造一个优化器Optimizer(优化器),用来保存当前的状态,根据计算得到的梯度来更新参数.Module..原创 2020-12-28 15:43:46 · 385 阅读 · 0 评论 -
Lenet5网络程序
Lenet5网络定义初始化网络:神经网络的典型处理如下:1.定义可学习参数的网络结构(堆叠各层和层的设计);2.数据集输入;3.对输入进行处理(由定义的网络层进行处理),主要体现在网络的前向传播;4.计算loss,由loss层计算;5.反向传播求梯度;6.根据梯度改变参数值,最简单的实现方式为(SGD)为:weight = weight - learning_rate * gradient def __init__(self): super(Len.原创 2020-12-28 11:29:19 · 216 阅读 · 0 评论 -
Lenet5网络
一,卷积神经网络(Convolutional Neural Network,CNN)卷积神经网络能够很好的利用图像的结构信息。LeNet-5是简单的卷积神经网络.下图显示了LeNet-5结构:输入的二维图像,经过两次卷积层,两次池化层,再经过全连接层,最后使用softmax分类作为输出层.下面主要讲解卷积层和池化层.1.卷积层卷积层是卷积神经网络的核心基石。在图像识别里我们提到的卷积是二维卷积,即离散二维滤波器(也称作卷积核)与二维图像做卷积操作,简单的讲是二维滤波器滑动到二维图像上所有位置原创 2020-12-20 14:03:02 · 780 阅读 · 1 评论 -
深度学习端到端的学习
传统的图像识别问题往往通过分治法将其分解为预处理,特征提取和选择,分类器设计等若干步骤。分治法的动机是将图像识别的母问题分解为简单、可控且清晰的若干小的子问题。不过分步解决子问题时,尽管可以在子问题上得到最优解,但子问题上的最优解并不意味着就能得到全局问题的最后解。深度学习提供了一种端到端的学习范式,整个学习的流程并不进行人为的子问题划分,而是完全交给深度学习模型直接学习从原始数据到期望输出的映射。两者相比,端到端的学习省去了在每一个独立学习任务执行之前所做的数据标注,为样本做标注的代价是昂贵的、易出错原创 2020-12-08 22:01:58 · 742 阅读 · 0 评论 -
Pytorch:实战RNN(正弦曲线的波形) 理论版
程序逻辑图:原创 2020-12-06 21:32:51 · 279 阅读 · 0 评论 -
Pytorch:实战RNN(正弦曲线的波形)
理论解析:定义RNN的神经网络数据集输入数据(50,):[ 1. 1.20408163 1.40816327 1.6122449 1.81632653 2.02040816 2.2244898 2.42857143 2.63265306 2.83673469 3.04081633 3.24489796 3.44897959 3.65306122 3.85714286 4.06122449 4.26530612 4.46938776原创 2020-12-06 21:29:16 · 535 阅读 · 1 评论 -
Pytorch-回归实战-利用梯度下降方法求解numpy两组数据
'''理论1.回归学习:理论:数据都是有噪声的.模型:y=wx+b+ε ,ε高斯噪声.损失函数:loss=sqrt(wx+b-y)动态图:由x,y,loss三个组成的立体空间图.目的:输入x值,求得的y`值尽量接近于真实值y.优化器:??''''''理论2.Linear Regressiona.Linear Regression (y=wx+b+ε)b.Logistic Regression 对数据进行压缩,使得y值在[0,1].c.Classification 手写字概率.原创 2020-11-23 15:04:04 · 437 阅读 · 0 评论 -
深度学习-对LSTM理论知识详细分析
递归神经网络在传统神经网络中,模型不会关注上一时刻的处理会有什么信息可以用于下一时刻,每一次都只会关注当前时刻的处理.举个例子,我们想对一部影片中每一刻出现的事件进行分类.如果我们知道视频前面的时间序列信息,那么对于当前时刻观看量的预测就会非常简单.实际上,传统神经网络没有记忆功能,所以它对每一刻出现的时间进行预测不会用到之前已经出现的信息.那么有什么办法可以让神经网络能够记住这些信息呢?递归神经网络就是把以前的信息传播下去的.(有记忆功能的神经网络)递归神经网络的结果与传统神经网络有一些不同,原创 2020-11-20 01:31:21 · 1061 阅读 · 0 评论 -
2020.08.29基本的神经网络流程
简单的例子:输入为100个具有1000个特征的数据,经过隐藏层1变成100个具有100个特征的数据,经过隐藏层21变成100个具有10个特征的数据,最后输出层输出100*10的分类数据.损失函数使用的是均方误差函数计算损失值,并进行后向传播.后向传播对每个节点链式求导计算出参数的梯度.然后更新梯度.训练次数为50,完成对初始权重参数的优化调整.程序:import torch'''设定数量:batch_n:在一个批次中输入的数据input_data:每个数据包含的数据特征有in原创 2020-08-29 17:50:44 · 199 阅读 · 0 评论