自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 通过SingleThreadExecutor源码窥探面向对象设计模式

本文4300+字,实际文字大概300,建议阅读时间10分钟我们知道Java预留了四种多线程池其中一种为SingleThreadExecutor,如同其字面意思就是单线程池,看一下源码:源码来自Executors类中静态方法public static ExecutorService newSingleThreadExecutor() { return new Finali...

2019-07-10 21:33:34 265

原创 Mybatis框架下Sql语句在java代码中查询不到结果

Mybatis框架下Sql语句在java代码中查询不到结果如题所示贴出log信息Creating a new SqlSessionSqlSession [org.apache.ibatis.session.defaults.DefaultSqlSession@7804b036] was not registered for synchronization because synch...

2019-05-06 19:17:46 940

原创 SpringBoot乱码

1.接受表单乱码添加配置类import org.springframework.context.annotation.Bean;import org.springframework.context.annotation.Configuration;import org.springframework.http.converter.HttpMessageConverter;impor...

2019-05-06 19:04:28 555 1

原创 Bp网络(回归)Numpy

import numpy as npimport matplotlib.pyplot as pltINPUT_SIZE = 2HIDDEN_SIZE = 4OUTPUT_SIZE = 2LEARNING_RATE = 0.000001def get_weights(last, next): return np.random.rand(last, next)def g...

2018-08-11 19:54:43 1407

原创 反向传播算法笔记:BackpropgationAlgorithm

2018-08-10 18:49:47 481

原创 CNN 卷积神经网络实践(基于Mnist数据集)

import torchimport torch.nn as nnimport torchvision.datasets as dsetsimport torchvision.transforms as transformsimport matplotlib.pyplot as pltimport numpy as npbatch_size = 50# MNIST dataset...

2018-08-06 21:30:22 917

原创 LSTM 循环神经网络实践(基于Mnist数据集)

import torchfrom torch import nnimport torchvision.datasets as dsetsimport torch.utils.data as Dataimport torchvision.transforms as transformsimport matplotlib.pyplot as pltimport numpy as np...

2018-08-06 21:24:36 845

翻译 numpy 形状

import numpy as npfrom numpy import *a = arange(6)# shape属性:改变自身形状。-1自适应print(a)a.shape = 2, -1print(a)# reshape方法: 返回一个指定形状的数组,不改变自身display = a.reshape(3, -1)print(a)print(display)# 使用n...

2018-07-29 11:32:18 402

翻译 numpy数组排序

from numpy import *import numpy as np# numpy数组排序# 先看一个例子输入姓名和值 输出姓名根据值大小排序names = array(['spring', 'oko', 'james', 'cisco'])weights = array([20.8, 3.0, 40.2, 99])# argsort 反回由小到大的索引array list...

2018-07-29 11:31:51 541

翻译 常用计算方法

from numpy import *# 常用计算方法a = arange(1, 10)a.shape = 3, -1"""[[1 2 3] [4 5 6] [7 8 9]]"""print(a)# 对所有元素求和display = sum(a) # 45print(display)# 对指定维度求和display = sum(a, axis=0) # 沿着第一维...

2018-07-29 11:31:12 207

翻译 numpy数据类型

from numpy import *# numpy数据类型# 复数数组a = array([1 + 1j, 2, 3, 4])# 查看类型 complex128print(a.dtype)# 查看实部 [1. 2. 3. 4.]print(a.real)# 查看虚部 [1. 0. 0. 0.]print(a.imag)# 改变虚部的值a.imag = [1, 2, 3, ...

2018-07-29 11:30:56 195

翻译 numpy数组

from numpy import *import numpy as np# numpy数组lst = [0, 1, 2, 3]a = array(lst)print(a)# a 的数据类型print(type(a))# 元素类型print(a.dtype)# 每个元素所占空间大小print(a.itemsize)# 改变a的形状a.shape = 2, -1prin...

2018-07-29 11:29:16 180

翻译 matplotlib 作图

import numpy as npimport matplotlib.pyplot as plt# matplotlib 作图x = np.linspace(0, 2 * np.pi, 100)y = np.sin(x)plt.plot(x, y)plt.show()plt.plot(x, np.sin(x), 'r-', x, np.sin(2 * x), 'g+')plt...

2018-07-29 11:28:53 222

翻译 # numpy预览

import numpy as npimport matplotlib.pyplot as plt# numpy预览a = [1, 2, 3, 4]print(a)a = np.array(a)print(a)a = a + 1print(a)a = a + aprint(a)a = np.array([1, 2, 1, 4])b = np.array([2, 3, 4...

2018-07-29 11:28:28 244

原创 Pytorch 实验(一) Minist手写数据集测试 1

Minist手写数据集测试(个人实践笔记,如有纰漏,烦请指出)        import torchimport torch.nn as nnimport torchvision.datasets as dsetsimport torchvision.transforms as transformsinput_size = 28 * 28 # image size of MNIST d...

2018-07-08 14:56:33 1879

原创 Pytorch (二) Regression 回归

       Regression就我现在学到的知识而言,我所目前知道的问题分两类,一类是回归分析,另一类是分类。初学者水平较低,仅为个人学习笔记,如有纰漏,请大佬们指出~今天所学的就是回归 Regression。1.搭建神经网络 2.定义损失函数 3.训练网络 先贴出代码import torch import torch.nn.functional as F #import activatio...

2018-07-07 22:41:46 2079

原创 Pytorch (一) 杂七杂八整理

        tensor 包含有 requires_grad属性,意为计算梯度值 设置为True时,会计算该张量的梯度,相反False不会计算梯度。通过调用反向传播方法:.backward(),计算梯度值,并且积累到.grad属性上,所以在每次反向传播时,一般需要把梯度置零,.zero_grad()方法。实例:(请注意各个方法应该是由谁调用)# optimizer 是优化器optimizer...

2018-07-07 15:13:47 240

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除