自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 Anaconda安装必备包

conda install anaconda

2020-01-02 16:08:35 1107

原创 softmax

(picture from CS231n)

2019-12-21 10:02:11 126

原创 numpy中stack、vstack、hstack、np.newaxis、concatenate

这谁记得住!# Created by Xky at 2019/12/17import numpy as npa = np.array([1, 2])b = np.array([3, 4])c = np.array([5, 6])print(a, b, c)print(a.shape)d = np.stack([a, b], axis=1)print(d, d.shape)e...

2019-12-17 22:24:39 222

原创 Python中的getopt和sys.argv

# Created by Xky at 2019/12/17import getoptimport sysopts, args = getopt.getopt(sys.argv[1:], '-h-f:-v', ['help', 'filename=', 'version'])print(opts)for opt_name, opt_value in opts: if opt_n...

2019-12-17 20:42:54 177

原创 python中argparse

python 命令行解析argparse实例化ArgumentParser,然后调用parse_args方法就可以使用。基本用法import argparse# 创建 ArgumentParser() 对象parser = argparse.ArgumentParser()# 调用 add_argument() 方法添加参数parser.add_argument()# 解析参数a...

2019-12-17 20:40:17 107

原创 Pytorch中 list(net.parameters())[0]

Pytorch中 list(net.parameters())[0]先看一下Lenet的代码class LeNet(nn.Module): def __init__(self): super().__init__() self.conv = nn.Sequential( nn.Conv2d(1, 6, 5), # in_chan...

2019-12-16 21:44:01 2453

原创 设计模式-观察者模式-程序

1 #include <iostream> 2 #include <list> 3 using namespace std; 4 //抽象的英雄 5 class AbstractHero{ 6 public: 7 virtual void Update() = 0; 8 9 }; 10 class HeroA : pu...

2019-12-13 10:47:37 69

原创 学习pytorch

1、print('cuda') if torch.cuda.is_available() else print('cpu')输出cuda这就像if else语句一样2、super(LeNet, self).__init__()这是python2中的写法,python3中在子类的初始化函数中,关联父类的初始化方法,不用再super()函数中传参super().__init__()...

2019-12-13 10:46:10 125

原创 typedef void (*Fun) (void*) 的相关解释

1、一般用法:#define _CRT_SECURE_NO_WARNINGS#include <iostream>using namespace std;void test01() { int a = 3; typedef int MyInt; MyInt b = 2; cout << a << " " << b <<...

2019-12-12 20:35:23 1442 2

原创 BN层pytorch实现

# Created by Xky at 2019/11/29import timeimport torchimport torchvisionimport torch.nn as nnimport sysimport torchvision.transforms as transformsfrom torch.utils.data.dataloader import DataLoad...

2019-11-29 14:12:32 3193

原创 BN层中为什么测试时使用训练的到的全局均值以及标准差?

预测时的批量归⼀化《动手学习深度学习》李沐使⽤批量归⼀化训练时,我们可以将批量⼤小设的⼤⼀点,从而使批量内样本的均值和⽅差的计算都较为准确。将训练好的模型⽤来预测时,我们希望模型对于任意输⼊都有确定的输出,因此,单个样本的输出不应取决于批量归⼀化所需要的随机小批量中的均值和⽅差 。一种常⽤的⽅法是通过移动平均估算整个训练数据集的样本均值和⽅差,并在预测时使⽤它们得到确定的输出。可⻅,和丢弃层⼀...

2019-11-29 13:08:56 1653 2

原创 Anaconda常用命令

cmd打开控制台输入 conda创建Python环境 conda create --name python python=3.6指定python版本为2.7,注意至少需要指定python版本或者要安装的包# 后一种情况下,自动安装最新python版本 conda create -n env_name python=2.7同时安装必要的包 conda create -n env_nam...

2019-11-20 16:02:38 206

原创 记录一次dBeker/Faster-RCNN-TensorFlow-Python3运行

错误一:没有确实运行Go to ./data/coco/PythonAPIRun python setup.py build_ext --inplaceRun python setup.py build_ext installGo to ./lib/utils and run python setup.py build_ext --inplace错误二:数据文件路径没有放对错误三:V...

2019-10-26 10:34:40 327

原创 记录一次ssh连接

windows(服务器) and windows(客户端)一台装上Bitwise ssh server,另外一台装Xshell。可以通过Xshell中ssh连接到另外一台windows。注:最好将两台windows的防火墙关闭。不过好像不关闭也能行点击open easy setting,出现下面配置虚拟用户名,密码,以及本机根工作目录。在xshell中,ssh [用户名]@[IP],这...

2019-10-20 21:51:36 350

原创 虚警率,召回率

虚警率被判定为正例中的负例的比例召回率被正确判定为正例的数量与所有正例的比列

2019-10-11 10:54:26 580

原创 windows中Ctrl+Z,对getchar输入结束方式

从键盘上输入:一段文字+^z + 回车 之后,在Windows系统上是这样处理的:由于回车的作用,前面的文段被送到输入缓冲区(注意:^z不会产生字符,所以更不会存储到输入缓冲区,缓冲区中没有 ^z 的存在)。这时,getchar() 检测到输入缓冲区中已经有数据存在(因此不再检查是否有^z 的输入),于是从缓冲中读取相应的数据。如果都读取完了,则输入缓冲区重新变为空,getchar() 等待新的输...

2019-10-08 20:55:12 1358

原创 优化算法之牛顿法

牛顿法和梯度下降法一样,都是解无约束优化问题,也是迭代算法,有收敛速度快的优点。每一步迭代都要求解目标函数的海塞矩阵,计算比较复杂,拟牛顿法通过正定矩阵来近似海塞矩阵的逆矩阵或海塞矩阵,简化了计算。...

2019-07-09 18:20:29 185

原创 标准梯度下降法

标准梯度下降法梯度下降法是一种迭代算法,用于解无约束问题,每一步要解目标函数的梯度向量。一阶泰勒展开设f(x)f(x)f(x)具有一阶连续偏导数,若第k次的迭代值为x(k)x^{(k)}x(k),则在x(k)x^{(k)}x(k)处的一阶泰勒展开为f(x)=f(x(k))+gkT∗(x−x(k))f(x)=f(x^{(k)})+g_{k}^{T}*(x-x^{(k)})f(x)=f(x...

2019-07-09 16:50:24 1127

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除