计算机---之逻辑地址,虚拟地址和物理地址 知识储备:x86和x64:简单理解就是cpu的内核是x86架构还是x64架构的,x86一般支持的是32位,即一次处理数据是32位,x64则是64位,一次数据传输可以处理64位。逻辑地址:为什么会有逻辑地址呢,因为如果是x86的cpu内核架构,则它的寻址能力有限,即最大寻址范围为2^32次方,即内存最大可以为4GB,而一般的计算机的内存物理内存只有4GB,加上虚拟内存就不止4GB了,
计算机---之ram与rom 区别转载于:https://zhidao.baidu.com/question/585720203.html一.区别动态RAM是目前最常用的内存类型。在动态RAM芯片内部,每个内存单元保存一位信息。单元由下面两部分组成:一个晶体管和一个电容器。当然这些部件都非常地小,因此一个内存芯片内可以包含数百万个。电容器保存信息位——0或1(有关位的信息,请参见位和字节)。晶体管起
深度学习---之bias reference:https://www.zhihu.com/question/68247574实际上,bias相当于多了一个参数。在增加网络少量拟合能力的情况下,bias和其它普通权值相比无论前向还是后向,计算上都要简单,因为只需要一次加法。同时,bias与其它权值的区别在于,其对于输出的影响与输入无关,能够使网络的输出进行整体地调整,算是另一维自由度吧。放在二维上,权值相当于直...
python---之suplot和suplots的区别 前言:大家一般都知道subplot可以画子图,但是subplots也可以画子图,鉴于subplots介绍比较少,这里做一个对比,两者没有功能一致。参考博客:Matplotlib的子图subplot的使用参考博客:subplots与figure函数参数解释说明以及简单的使用脚本实例对比开始:需求:画出两张子图,在一行显示,子图中的内容一模一样subplot代码:ax1 ...
C语言---之C调用C++代码 在是此功能需要使用到extern “C”头文件如下#ifndef GETWH_H#define GETWH_H#include<stdio.h>#include<stdlib.h>#include<string.h>void getWH(const char* filename,int* width ,int *height);#endif...
python---之__len__ 转载:https://www.cnblogs.com/superxuezhazha/p/5792199.html__len__如果一个类表现得像一个list,要获取有多少个元素,就得用 len() 函数。要让 len() 函数工作正常,类必须提供一个特殊方法__len__(),它返回元素的个数。例如,我们写一个 Students 类,把名字传进去:class Students(...
论文基础知识---之卷,期 论文发表后的卷号是怎么算的呢?期刊为区分每一本,会给冠以卷号期号。不少期刊在第几期之上有第几卷标志。期刊以时间分“卷”和“期”。卷是在期之上的一个时间分类。一般的期刊是具有卷号和期号的。但也有些期刊只有期号而没有卷号,是以其出版年作为卷号。 卷号是从创刊那一年开始算起的,期号是从一年的第一个月算起。如果某期刊是双月刊,那么它一年就只有6期,也就是说一卷6期,12月出来的是第6期。即这里“期
C++---C/C++预处理指令#define,#ifdef,#ifndef,#endif 本文主要记录了C/C++预处理指令,常见的预处理指令如下:#空指令,无任何效果 #include包含一个源代码文件 #define定义宏 #undef取消已定义的宏 #if如果给定条件为真,则编译下面代码 #ifdef如果宏已经定义,则编译下面代码 #ifndef如果宏没有定义,则编译下面代码 #elif如果前面的#if给定条件不为真,当前条件为真,则编译下面代码 #endif...
tensorflow---调用tf.softmax_cross_entropy_with_logits函数出错解决 解决:原来这个函数,不能按以前的方式进行调用了,只能使用命名参数的方式来调用。原来是这样的:tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(y, y_))因此修改需要成这样:tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits(logits=logits, lab...
tensorflow---之常量与变量的区别 常量和变量TensorFlow 中最基本的单位是常量(Constant)、变量(Variable)和占位符(Placeholder)。常量定义后值和维度不可变,变量定义后值可变而维度不可变。在神经网络中,变量一般可作为储存权重和其他信息的矩阵,而常量可作为储存超参数或其他结构信息的变量。下面我们分别定义了常量与变量: a = tf.constant(2, tf.int16) ...
python---之有序字典 转载:https://www.cnblogs.com/zhenwei66/p/6596248.htmlimport collectionsdic = collections.OrderedDict()dic['k1'] = 'v1'dic['k2'] = 'v2'dic['k3'] = 'v3'print(dic)#输出:OrderedDict([('k1', 'v1'), ...
深度学习---之lmdb文件的制作 caffe对于训练数据格式,支持:lmdb、h5py……,其中lmdb数据格式常用于单标签数据,像分类等,经常使用lmdb的数据格式。对于回归等问题,或者多标签数据,一般使用h5py数据的格式。当然好像还有其它格式的数据可用,本文就主要针对lmdb数据格式的制作方法,进行简单讲解。以一个简单的例子来介绍一下如何生成自己的图像集。主要分为两步:(1)生成标签文件列表,...
python---学习笔记之read(),readline()和readline() 转载链接:http://blog.csdn.net/werm520/article/details/6898473python中的三个读read(),readline()和readlines()转载 2011年10月23日 17:29:49标签:python/list/文档/c我们谈到“文本处理”时,我们通常是指处理的内容。Pyt
C---calloc 描述C 库函数 void *calloc(size_t nitems, size_t size) 分配所需的内存空间,并返回一个指向它的指针。malloc 和 calloc 之间的不同点是,malloc 不会设置内存为零,而 calloc 会设置分配的内存为零。声明下面是 calloc() 函数的声明。void *calloc(size_t nitems, size_t size...
深度学习---之batch size的影响 程引To infinity and beyond.谈谈深度学习中的 Batch_SizeBatch_Size(批尺寸)是机器学习中一个重要参数,涉及诸多矛盾,下面逐一展开。首先,为什么需要有 Batch_Size 这个参数?Batch 的选择,首先决定的是下降的方向。如果数据集比较小,完全可以采用全数据集 ( Full Batch Learning )的形式,这样做至少有 2 个好处:其一,由全数...
matlab---之permute,im2double,double 转载:https://zhidao.baidu.com/question/290414065.html https://zhidao.baidu.com/question/1731979353854169747.html 1permutepermute(多维数组,[维数的组合])比如:a=rand(2,3,4); %这是一个三维数组,各维的长度分别为:2,3,4%现