自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 常用参数优化方法过程分析

【代码】常用参数优化方法过程分析。

2023-06-19 18:27:19 149

原创 pandas简单入门

import pandas as pdimport numpy as npdf = pd.DataFrame(np.random.randn(10,5), columns=['col1', 'col2', 'col3', 'col4', 'col5'])print(df)df.apply(lambda x: x.sum(), axis=1)print(df)def process_age(x): age = x[2] if age > 0 and age < 3

2021-06-02 09:22:04 74

原创 Numpy简单入门

import numpy as npfrom matplotlib import pyplot as plta = np.array([[1,2], [2,4], [3,3]]); print(a)b = np.arange(10); print(b)b = np.arange(3,7,2);print(b)c = np.array([[1, 2], [3, 4]]); print(c)c = np.array([[1, 2, 3], [3, 4, 2], [3, 4, 2]]); d

2021-06-02 09:16:36 73

原创 python基本语句傻瓜式入门

import timeprint(time.localtime())#pandas pb, numpy np, tensorflow tfimport time as t # numpy as np, pandas as pd, tensorflow as tfprint(t.localtime())# from a.b.c import dfrom time import timeprint(time())from time import *print(localtime())# p

2021-06-01 11:18:05 154

原创 机器学习入门训练6-数学入门操作

x = np.random.normal(0, 1, [1000]) y = x ** 2 + x + np.random.normal(0, 0.3, [1000]) plt.scatter(x, y) plt.show()def Cov(x1, x2): """协方差""" return np.mean((x1-np.mean(x1))*(x2-np.mean(x2)))def rho(x1, x2): """线性相关系数""" return Cov(x1,

2021-06-01 11:02:47 69

原创 机器学习入门训练5-图像操作

# 浮雕滤波kernel = np.array([[-2, -1, 0], [-1, 1, 1], [0, 1, 2]], dtype="float32")# 平均模糊 #kernel = np.ones([8, 8])/64 ## 纵向边缘 ##kernel = np.ones([8, 8]) #kernel[:, :4] = -1 # 横向边缘 #kernel = np.ones([8, 8]) #kern

2021-06-01 10:55:41 208

原创 机器学习入门训练4-梯度下降

负梯度def f(x): """定义函数""" return x ** 2 + 2 * x def gradf(x): """导数""" return 2 * x + 2 x0 = 0 # 初始值eta = 1e-4 #学习率for step in range(20): g = gradf(x0) # 减去梯度(导数)方向 x0 = x0 - eta * g print(f"Setp:{step}, {x0}, {f(x0)

2021-06-01 10:42:21 102

原创 机器学习入门训练3-从KNN引申出的几个API

KNN的基本用法k_range = range(1, 31)k_scores = []for k in k_range: knn = KNeighborsClassifier(n_neighbors=k) scores = cross_val_score(knn, X, y, cv=3, scoring='accuracy') # for classification k_scores.append(scores.mean())# (1) test train split

2021-06-01 10:35:30 72

原创 机器学习入门训练2-KNN的实现

knn一般指邻近算法,是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的K个邻近值来代表。

2021-05-29 20:50:25 136

原创 机器学习入门训练1-简单的数据构造

1.对于学习来说,一开始对一些简单数学问题构造数据往往是比较容易理解的,这里把样本中的数字对3、5、15分别取余,找出其倍数。def func(max): res = [] for i in range(1, max): if i % 15 == 0: res.append('fizzbuzz') elif i % 3 == 0: res.append('fizz') elif i % 5 ==

2021-05-29 20:39:11 310

原创 深度学习常用概念

1.Batchnorm 能够加快训练过程,还具有调节噪声的作用。2.GAN(Generative Adversarial Network)即生成对抗网络,通常由两个神经网络 D 和 G 组成,其中 D 指的是判别器(Discriminator),而 G 指生成网络(Generative Network)。3.数据扩充是一种技术,通过操作原始数据来增加输入数据。对于图像可以执行以下操作:旋转图像、翻转图像、添加高斯模糊等。4.Adam每个参数更新可加快收敛速度;动量可避免卡在鞍点上。5.鞍点是梯度为

2021-05-28 22:36:51 177

原创 机器学习常用概念

1.偏差——模型预测值与真实值的差异;方差——不同训练数据训练的模型的预测值之间的差异。2.监督学习和非监督学习区别在于有无标签。3.k-Nearest Neighbors 是一种监督学习算法,而 k-means 是非监督的。4.ROC 曲线是真正率和假正率在不同的阀值下之间的图形表示关系;通常用作权衡模型的敏感度与模型对一个错误分类报警的概率。5.贝叶斯定理会根据一件事发生的先验知识告诉你它后验概率。6.朴素贝叶斯:我们假设特征之间是相互独立,也就是我们计算条件概率时可以简化成它的组件的条

2021-05-28 16:29:42 230

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除