自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 字典的运用

概念1.Python中的字典是python的一种数据结构,它的本质是key和value以及其对应关系的一种集合,一个key可以对应一个多个value。合理的使用字典能给我们编程带来很大的方便。举个例子列表[99,98,97,96]字典{"a":99,"b":98,"c":97,"d":96}字典的创建dict(name="jack",age=20)常用操作键的判断scores={"a":99,"b":98,"c":97,"d":96}print ("a" in scores)pri

2020-10-06 22:35:12 156

原创 列表

列表概念:变量可以存储一个元素,列表是一个大容器,可以存储多个元素,程序可以方便的对这些数据进行整体操作。列表相当于其它语言的数组。写一个代码a=10 ## 变量存储的是一个对象的引用lst=["hello","word","98"]print(id(lst))print(type(lst))print(lst)列表创建方法一;用[,]创建如lst=["hello","word","98"]方法二;用内置函数list如 lst2=list(["hello","word","9

2020-09-29 15:37:34 106

原创 流程控制语

流程控制语1break语句用于结束循环结构,通常与分支结构if一起使用写一个循环a=0while a<3: pwd=input("请输入密码;") if pwd=="8888": print("密码正确") breakelse: print("密码不正确")2continue语句用于结束当前循环,进入下一次循环,通常与分支结构中的if一起使用写一个循环for item in range(1,51): if item&5!=

2020-09-29 13:38:36 103

原创 循环结构

while循环1 语法结构while 条件表达式:条件执行体(循环体)while (表达式){ 语句;}写一个循环a=1while a<10: print(a) a+=1结果输出while循环执行流程1.四步循环法初始化变量条件判断条件执行体()写一个循环计算0到4的累加和sum=0## 初始化变量##a=0## 条件判断 ## while a<5: ## 循环体 ## sum+=a## 改变变

2020-09-29 12:22:33 165

原创 range函数创建

range函数的三种创建1.小括号中一个数r=range(10)## 默认从0开始print(r)## 默认步长为1print(list(r))2。小括号里面两个数r=range(1,10)## 指定1到10print(list(r))## 步长为13.小括号里面三个数r=range(1,10,2)## 指定1到10,步长为2print(list(r))...

2020-09-27 11:54:13 271 1

原创 机械学习

k-近邻算法KNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。建立一个KNN.py文件对算法的可行性进行验证,如下:from numpy import *import operator##给出训练数据以及对应的类别def createDataSet(): group = array([[1.0,2.0],[1.2,0.1],[0.1,1.4],[0.3,3.5]]) labels = [

2020-09-27 10:47:19 353

原创 参数传递

python参数传递1什么是参数传递参数传递,是在程序运行过程中,实际参数就会将参数值传递给相应的形式参数,然后在函数中实现对数据处理和返回的过程,方法有按值传递参数,按地址传递参数和按数组传递参数。2位置传递和名称传递有两个形参a和b,反馈结果为a*b的值,令ab等于1.2,输出结果为2def add(a,b): return a*bresult=add(1,2)print(result)结果输出3可变参数的传递用元组类型为案例def add(a,*b): s=0

2020-09-23 12:03:31 379

原创 python概念理解

概念python中有元组、列表、数据框、数组这四种可以存放多个数据元素的集合一 元组元组是一种静态的数据结构,无法修改,若要修改只能重新生成新的元组。元组元素的获取是通过索引值去获得的,也是可以层次嵌套的。二 列表列表的特性有索引,切片,重复,链接,成员操作符,迭代[for循环遍历],列表里嵌套列表三 数据框数据框是最常用的数据结构,用于存储二维表(即关系表)的数据,每一列存储的数据类型必须相同,不同数据列的数据类型可以相同,也可以不同,但是每列的行数(长度)必须相同。数据框的每列都有唯一的名

2020-09-21 22:44:31 80

原创 while循环

while 语句用于循环执行程序,即在某条件下,循环执行某段程序,以处理需要重复处理的相同任务。while的执行顺序while 循环的执行顺序非常简单,它的格式是:while (表达式){ 语句;}当表达式为真,则执行下面的语句;语句执行完之后再判断表达式是否为真,如果为真,再次执行下面的语句;然后再判断表达式是否为真……就这样一直循环下去,直到表达式为假,跳出循环。这个就是 while 的执行顺序。注意,初学者编程时,if、else、for、while、do 后面的执行语句

2020-09-16 22:01:05 1393

原创 2020-09-16

for循环+简单函数和自定义函数for循环是编程语言中一种开界的循环语句,而循环语句 由循环体及循环的终止条件两部分组成,for循环其在各种编程语言中的实现与表达有所出入,但基本为以C语言和pascal语言代表的两种形式。for循环:结构更加紧凑.以个人今日收款为例,第一次收100,第二次收200,第三次收300.操作代码money=[100,200,300]for n in money: print(n)这样可以清楚的看到数据n中包含的数,在循环中加入sum函数,用来计算今日收款

2020-09-16 20:18:09 67

原创 概念

1.形参1.1概念全称为"形式参数"是在定义函数名和函数体的时候使用的参数,目的是用来接收调用该函数时传递的参数。1.2作用形参的作用是实现主调函数与被调函数之间的联系,通常将函数所处理的数据,影响函数功能的因素或者函数处理的结果作为形参。没有形参的函数在形参表的位置应该写int main(void) 函数也可以有形参和返回值,其形参也称为命令行参数,由操作系统在启动程序时初始化,其返回值传递给操作系统。2.实参2.1概念实参,actual parameters,全称为"实际参数"是在调用时传

2020-09-16 19:40:59 132

原创 交叉熵和正则化缓解过拟合

1交叉熵损失函数概念交叉熵损失函数; 表征两个概率分布间的距离import tensorflow as tfloss_ce1 = tf.losses.categorical_crossentropy([1, 0], [0.6, 0.4])loss_ce2 = tf.losses.categorical_crossentropy([1, 0], [0.8, 0.2])print("loss_ce1:", loss_ce1)print("loss_ce2:", loss_ce2)# 交叉熵损

2020-09-13 22:30:24 2608

原创 损失函数

损失函数(loss)loss函数的作用就是描述模型的预测值与真实值之间的差距大小。我的理解是寻找一个标准来帮助训练机制随时优化参数,以便于找到网络的最高精度下的参数。这个标准不难理解,与我们日常生活中的很多事情一致,例如倒车入库,在你倒车的同时肯定会一边打方向盘一边看倒后镜一样(当然具备自动倒车入库功能的车除外),根据倒后镜中看到的停车线,随时调整以便能够准确入库,这个停车线就是标准。更通俗的来说,loss函数就是指导模型在训练过程中朝着收敛的方向前进。二、常见的loss算法种类1.MSE(均值平方差

2020-09-12 23:36:56 254

原创 激活函数

1激活函数1.激活函数(activation function):我们知道在多层的神经网络中,上一层的神经元(neuron)信号,即线性单元wx+b算出的结果,要输入到下一层,但是这个信号在输入到下一层之前需要一次激活f = sigmoid(wx+b),或f = ReLU(wx+b)。我们需要选择一些信号在下一层的神经元激活。如何表示激活呢?就是当激活函数的输出结果是0,就代表抑制,是1,就代表激活。因为按照下一层的线性单元wx+b的计算来看,如果x接近于0,那么就会阻止x对应的权重w起作用,如果接近1,

2020-09-12 22:23:06 431

原创 复杂度,学习率

神经网络(NN)复杂度在梳理CNN经典模型的过程中,我理解到其实经典模型演进中的很多创新点都与改善模型计算复杂度紧密相关,NN复杂度;多用NN层数和NN参数表示空间复杂度;层数=隐藏层层数数+1个输出层时间复杂度:乘加运算次数学习率指数衰减学习率先用较大的学习率,快速得到较优解,然后逐步减小学习率,使模型在训练后期稳定指数衰减学习率=初始学习率+学习率衰减率(当前轮数/多少轮衰减一次)操作代码import tensorflow as tfw = tf.Variable(tf.co

2020-09-11 15:50:57 442

原创 预备知识

预备知识1,条件语句tf.where。tf.where(条件语句,真返回A,假返回b)a = tf.constant([1, 2, 3, 1, 1])b = tf.constant([0, 1, 3, 4, 5])c = tf.where(tf.greater(a, b), a, b) # 若a>b,返回a对应位置的元素,否则返回b对应位置的元素print("c:", c)np.random.RandomState.rand(维度),返回0或1间的随机数。import num

2020-09-09 22:30:36 90

原创 神经网络实现鸢尾花分类

神经网络实现鸢尾花分类1准备数据1数据集读入2.数据集乱序3.区分训练集和测试集4.配对,每次读入一小撮2搭建网络定义神经网络中所有可训练参数3参数优化嵌套循环迭代,with结构更新参数,显示当前loss4测试效果计算当前参数向前传播后的准确率,显示当前accacc/loss可视化操作代码1,导入数据# 导入所需模块import tensorflow as tffrom sklearn import datasetsfrom matplotlib import pypl

2020-09-08 12:31:09 1040

原创 tensorflow常用函数学习

2.tensorflow常用函数1.with结构记录计算过程,gradient求出张量梯度with.tf.gradienTape() as tape:若干个计算过程grad=tape.gradient(函数,对谁求导)with tf.GradientTape() as tape: x = tf.Variable(tf.constant(3.0)) y = tf.pow(x, 2)grad = tape.gradient(y, x)print(grad)操作结果2.enum

2020-09-07 14:36:34 232

原创 tensorflow常用函数

常用函数整理1.强制tensor转换为该数据类型tf.cast(张量名,dtpye=数据类型)。计算张量维度上元素的最小tf.reduce_min(张量名),计算张量维度上元素的最大值tf.reduce_max(张量名)。例如:x1=tf.constant([1.,2.,3.],dtype=tf.float64)print(x1)x2=tf.cast(x1,tf.int32)print(x2)print(tf.reduce_min(x2),tf.reduce_max(x2))运行结果

2020-08-25 10:48:15 134

原创 用鸢尾花数据集来学习,并进行tensor的创建

1.数据载入这次我用神经网络给鸢尾花分类,用python自带的鸢尾花数据集来进行1.1代码操作import tensorflow as tf## 安装tensorfloww=tf.Variable(tf.constant(5,dtype=tf.float32))## 设定参数w初始值为5lr=0.2 ## 设定学习率为0.2epoch=40设置好了初始参数后,进行下一步for epoch in range(epoch): # for epoch 定义顶层循环,表示对数据集循环epoch

2020-08-24 12:16:16 266

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除