自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(59)
  • 收藏
  • 关注

原创 复杂网络建模(网络上的传播现象 )

自然和社会中的很多现象都可以被描述为网络上的传播过程,如生物传播、数字传播、社交传播等。在网络科学中常常用枢纽节点来表示超级传播者。

2022-07-17 17:48:07 480 1

原创 复杂网络建模(网络鲁棒性)

网络通过人们的相遇、思想传播以及传染病在社会中传播等描述了大量的互动,确定网络中最有效的“传播者”是朝着优化利用现有资源核确保更有效传播信息的重要步骤。有些学者发现最有效的传播者是由k壳分解确定的位于网络核心的那些点。渗流理论是随机图理论研究中的一个重要发现是存在出现巨大节点集群的临界概率。即网络具有临界概率pc,当不超过pc时,网络由孤立的节点集群组成,但是当超过pc时,巨大节点集群将扩展到整个网络。网络中的某些节点(或节点集)一旦被移除(或攻击)就会对网络的连通性(鲁棒性)产生雪崩式的影响。...

2022-07-15 18:17:31 2334

原创 复杂网络建模(六)

离散形式:由于节点的度是正整数,k=0,1,2……,因此,表示一个节点正好有k个链接的概率pk是一种离散形式的幂律分布:pk=Ck−γp_k=Ck^{-\gamma }pk​=Ck−γ常数C由如下归一化条件来确定:∑k=1∞pk=1\sum_{k=1}^{\infty}p_k=1k=1∑∞​pk​=1即:C∑k=1∞k−γ=1C\sum_{k=1}^{\infty}k^{-\gamma}=1Ck=1∑∞​k−γ=1所以:C=1∑k=1∞k−γ=1ζ(γ)C=\frac{1}{\sum_{

2022-07-13 18:18:23 409

原创 复杂网络建模(五)

小世界现象的解释在网络科学的语言中,小世界现象意味着,网络中随机选择的两个节点之间的距离很短。通常情况下,小世界性质定义为dˉ≈lnNlnkˉ\bar{d}\approx \frac{lnN}{ln \bar{k}}dˉ≈lnkˉlnN​小世界现象中的小是指,平均路径长度或网络直径和网络大小的关系是对数关系。因此,小的意思是,正比于lnN,为不是正比于N或者N的幂。WS小世界模型构造如下(1)从规则图开始:考虑一个含有N个节点的最临近耦合网络,它们围成一个环,其中每个节点与它左右相邻的各K/2个

2022-07-10 15:06:34 862

原创 复杂网络建模(四)

(a)©(d)(e)四个网络的集聚系数均为0,(b)的集聚系数为1; 完全网络的直径为1,一维环状网络的直径为节点N 的一半,二维晶格的直径为L。随机网络的两种生成方式:(1)G(N,L)模型N个节点通过L条随机放置的链彼此连接,简称GNL。(2)G(N,p)模型N个节点中,每对节点之间以概率p彼此相连,简称GNP。1)期望连边数随机网络恰好有L条链接的概率,是如下三项的乘积:(a)L点对之间存在链接的概率,即pL(b)剩余的N(N-1)/2-L个点对之间没有链接的概率,即(1-p)N(N-1

2022-07-09 23:03:40 708

原创 复杂网络建模(三)

度中心性分为节点度中心性和网络度中心性。前者指的是节点在其与之直接相连的邻居节点当中的中心程度,而后者则是侧重节点在整个网络的中心程度,表征的是整个网络的集中程度。节点Vi的度中心性CD(Vi)定义为CD(Vi)=ki/(N−1)C_D(V_i)=k_i/(N-1)CD​(Vi​)=ki​/(N−1)介数中心性分别为节点介数中心性和网络介数中心性。节点Vi的介数中心性CB(Vi)定义为CB(Vi)=2Bi/[(N−2)(N−1)]C_B(V_i)=2B_i/[(N-2)(N-1)]CB​(V

2022-07-03 18:10:18 1138

原创 复杂网络建模(二)

介数分为节点介数和边介数,反映了节点或边在整个网络中的作用和影响力。节点的介数Bi定义为Bi=∑j≠l≠i[Njl(i)/Njl]B_i=\sum_{j\neq l\neq i}^{}[N_{jl}(i)/N_jl]Bi​=j​=l​=i∑​[Njl​(i)/Nj​l]其中,Njl表示节点Vj和节点Vl之间的最短路径条数,Njl(i)表示节点Vj和节点Vl之间的最短路径经过节点Vi的条数。边的介数Bij定义为Bij=∑(l,m)≠(i,j)[Nlm(eij)/Nlm]B_{ij}=\su

2022-07-02 18:31:20 881

原创 复杂网络建模(一)

节点的度就是该节点的邻边数量。平均度就是所有节点度的平均值。度分布描述了节点度的分布情况,通常用直方图来表示。无向网络中如果任意一对节点i和节点j之间至少存在一条路径,则网络是连通的,若不存在则是不连通的。集聚系数用以捕获给定节点邻居节点之间的连接程度。对于一个度为ki的节点i,局部聚集系数被定为如下图所示整个网络的集聚程度可以由平均集聚系数所表征,它代表了所有节点的局部集聚系数的平均值大多数实际网络中的节点的度满足一定的概率分布的。定义p(k)为网络中度为k的节点在整个网络中所占的比例。规则网络:

2022-07-01 21:35:36 2649

原创 tensorflow学习笔记(五)

损失函数(loss):预测值与已知的差距均方误差(mse):loss_mse=tf.reduce_mean(tf.square(y_-y))自定义损失函数:如预测商品销量,预测多了损失成本;预测少了,损失利润。若利润不等于成本,则mse产生的loss无法利益最大化loss_zdy=tf.reduce_sum(tf.where(tf.greater(y,y_),COST(y-y_),PROFIT(y_-y)))交叉熵交叉熵损失函数CE:表征两个概率分布之间的距离tf.los.

2022-05-13 22:08:49 122

原创 tensorflow学习笔记(四 )

条件语句真返回A,条件语句假返回Btf.where(条件语句,真返回A,假返回B)举个例子a=tf.constant([1,2,3,1,1])b=tf.constant([0,1,3,4,5])c=tf.where(tf.greater(a,b),a,b)#若a>b,返回a对应位置的元素,否则返回b对应位置的元素返回一个[0,1)之间的随机数np.random.RandomState.rand(维度)讲两个数组按垂直方向叠加np.vstack()np. mgrid[起始值:.

2022-05-07 23:02:41 153

原创 tensorflow学习笔记(三 分类)

鸢尾花数据集(Iris)数据集中有着三种不同的鸢尾花,分别用0,1,2来表示。从sklearn中读取数据库,语法为:from sklearn.datasets import load_irisx_data = datasets.load_iris().data # .data返回iris数据集所有输入特征y_data = datasets.load_iris().target # .target返回iris数据集所有标签print("x_data from datasets: \n", x_

2022-05-06 23:16:08 619

原创 tensorflow学习笔记(二 常用函数)

梯度下降的模拟import tensorflow as tfimport osos.environ['TF_CPP_MIN_LOG_LEVEL']='2'/w = tf.Variable(tf.constant(5, dtype=tf.float32))lr = 0.2epoch = 40for epoch in range(epoch): # for epoch 定义顶层循环,表示对数据集循环epoch次,此例数据集数据仅有1个w,初始化时候constant赋值为5,循环40次迭代。

2022-05-06 22:24:21 177

原创 tensorflow学习笔记(一)

tensorflow 的含义tensor的英文含义为张量,可以理解为一个任意维的矩阵,一个可以进行GPU计算的矩阵,tensorflow表示为对矩阵进行计算。简单操作import tensorflow as tfimport numpy as np#检查tensorflow版本 tf.__version__ 2.8.0x=[[1.]]m=tf.matmul(x,x)#将矩阵 a 乘以矩阵 b,生成a * bprint(m)tf.Tensor([[1.]], shape=(1, 1

2022-05-01 17:47:44 852

原创 深度学习(Tensorflow—GPU安装)

本人在进行深度学习的过程中对tensorflow的安装尝试过很多次也错误过很多次,我认为究其原因还是现在很难在网上寻找到一篇很完备的文章去详细的说明tensorflow 的安装全部过程,当然也仅限于GPU版本,毕竟CPU版本要简单很多,简单所带来的牺牲就是一定运行效率的降低。首先在进行tensorflow的安装时,我们要先进行安装cuda和cuDNN(当然如果准备安装CPU版本就不用这一步)我寻找的一篇很详细的安装cuda和cuDNN的布置的博客,希望对大家有所帮助。https://blog.csdn

2022-04-28 03:14:01 673

原创 STL时序分解

STL (Seasonal-Trend decomposition procedure based on Loess) [1] 为时序分解中一种常见的算法,基于LOESS将某时刻的数据Yv分解为趋势分量(trend component)、周期分量(seasonal component)和余项(remainder component)1.功能分解函数成三部分:趋势、周期、和剩余部分(一般指噪声,均值为0)分解就是将时序数据分离成不同的成分,分解有:长期趋势Trend、季节性seasonality和随机残

2022-04-23 00:37:32 3401

转载 深度学习笔记(一 误差)

Error的来源从上节课测试集数据来看,Average ErrorAverage\ ErrorAverage Error 随着模型复杂增加呈指数上升趋势。更复杂的模型并不能给测试集带来更好的效果,而这些 ErrorErrorError 的主要有两个来源,分别是 biasbiasbias 和 variancevariancevariance 。然而 biasbiasbias 和 variancevariancevariance 是什么?可以查看 机器学习中的Bias(偏差),Erro

2022-04-21 16:49:45 355

原创 scikit-learn(sklearn)学习笔记十一 随机森林

1.集成算法它本身不是单独的机器学习算法,而是通过在数据上构建多个模型,集成所有模型的建模结果,以此来获取比单个模型更好的回归或分类表现。2.sklearn中的集成算法ensemble.AdaBoostClassifier AdaBoost分类ensemble.AdaBoostRegressor AdaBoost回归ensemble.BaggingClassifier 袋装分类器ensemble.BaggingRegressor 袋装回归器ensemble.ExtraT

2022-04-11 23:21:37 1863 1

原创 MySQL数据库学习笔记(四约束 )

约束1.概念:约束是用作于表中字段上的规则,用于限制储存在表中的数据。2.目的:

2022-04-07 22:42:36 921

原创 MySQL数据库学习笔记(三函数)

1.字符串函数2.数值函数3.日期函数4.流程函数

2022-04-04 14:15:59 594

原创 MySQL数据库学习笔记(二DML、DQL)

DML-添加数据1.给指定字段添加数据INSERT INTO 表名()

2022-04-03 15:42:59 634

原创 MySQL数据库学习笔记(一DDL)

SQL-DDL-数据库操作DDL-数据库操作查询查询所有数据库SHOW DATABASES;查询当前数据库SELECT DATABASE();#有括号创建CREATE DATABASE[IF NOT EXISTS]数据库名[DEFAULT CHARSET字符集][COLLATE排列规则]#其中[]内的都是可以不填写的删除DROP DATABASE[IF EXISTS]数据库名使用USE 数据库名;DDL-表操作-查询查询当前数据库所有表SHOW TABLES

2022-04-02 20:53:38 451

原创 scikit-learn(sklearn)学习笔记十 支持向量机

书接上次笔记,我们通过把二维的数据映射到三维,再用超平面进行划分。但是这也是有很大的问题的,维数越高越难以计算。于是在上次笔记的最后,采用了更换核函数来满足支持向量机的分类要求。klearn在skearn中可选择以下几种选项linear 线性核,解决问题为线性。poly 多项式核,解决问题为偏线性。sigmoid 双曲正切核,解决问题为非线性。rbf 高斯径向基,解决偏为非线性。所以要研究kernel应该如何选取from sklearn.datasets import load_brea

2022-03-31 18:08:39 1402

原创 scikit-learn(sklearn)学习笔记九 支持向量机

1.sklearn.svm.SVC我们可以用sklearn中的式子来可视化决策边界和决策边界的两个超平面。(a)导入需要的模块from sklearn.datasets import make_blobsfrom sklearn.svm import SVCimport matplotlib.pyplot as pltimport numpy as np(b)实例化数据集,可视化数据X,y=make_blobs(n_samples=50,centers=2,random_state=0,c

2022-03-30 22:51:16 492

原创 scikit-learn(sklearn)学习笔记八 朴素贝叶斯

朴素贝叶斯是一种直接衡量标签和特征之间的概率关系的有监督算法,可以做回归也可以做分类。假设特征之间是有条件独立的,可以解决众多问题,也简化了很多计算,这是朴素贝叶斯被称为“朴素”的原由,因此,贝叶斯在特征之间有很多相关的数据集上表现不佳。 从常用的几个分布分别是:高斯分布,伯努利分布和多项式分布,sklearn提供了四种朴素贝叶斯的分类器naive_bayes.BernoulliNB 伯努利分布下的朴素贝叶斯naive_bayes.GaussianNB 高斯分布下的朴素贝叶斯naive_

2022-03-26 21:15:41 2125

原创 scikit-learn(sklearn)学习笔记七聚类算法

1.聚类聚类算法是监督学习中的一个典型的代表典型的聚类算法有:K-Means、DBSCAN、层次聚类、光谱聚类。聚类算法的目的就是让组内差距小 组间差距大,这个目的是样本点到质心的距离来衡量的。距离的衡量方法如下:欧式距离:欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式。d(x,y)=Σk=1n(xk−yk)2d(x,y)=\sqrt{\Sigma_{k=1}^n (x_k-y_k)^2}d(x,y)=Σk=1n​(xk​−yk​)2​曼哈顿距离:曼哈顿距离也称为街区距

2022-03-26 14:43:06 1170

原创 scikit-learn(sklearn)学习笔记六 决策树

sklearn中决策树都在‘tree’这个模块中,这个模块总共包含五类:tree.DecisionTreeClassifier 分类树tree.DecisionTreeRegressor 回归树tree.export_graphviz 画图专用tree.ExtraTreeClassifier 高随机版本的分类树tree.ExtraTreeRegressor 高随机版本的回归树我们先开始学习分类树 DecisionTreeClassifier 的参数1.criterion衡量决策树

2022-03-26 11:12:32 1164

原创 scikit-learn(sklearn)学习笔记五

此次笔记的内容:cross validation交叉验证我们先沿用第一次笔记的代码import numpy as npfrom sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_split#切割训练集与测试集from sklearn.neighbors import KNeighborsClassifier#K临近学习iris=load_iris()X=iris.datay=iri

2022-03-20 11:42:42 1763

原创 scikit-learn(sklearn)学习笔记四

normalization标准化即scale例子如下from sklearn import preprocessingimport numpy as npa=np.array([[10,2.7,3.6],[-100,5,-2],[120,20,40]],dtype=np.float64)print(a)print(preprocessing.scale(a))[[ 10. 2.7 3.6] [-100. 5. -2. ] [ 120. 20. 4

2022-03-19 16:47:20 1367

原创 scikit-learn(sklearn)学习笔记三

scikit-learn中除了前两篇笔记所说的两种model以外还有许多机器学习的model。先用上次笔记中的LinearRegression来了解model的各种属性。print(model.coef_)#权重系数print(model.intercept_)#截距[-1.08011358e-01 4.64204584e-02 2.05586264e-02 2.68673382e+00 -1.77666112e+01 3.80986521e+00 6.92224640e-04 -1.4

2022-03-19 15:20:17 350

原创 scikit-learn(sklearn)学习笔记二

sklearn中的datasets数据库里面有很多的data,例如有纽约房价,糖尿病数据,他也可以帮我们生成一些特定的数据帮助我们做特定的练习,比如线性回归等等from sklearn import datasetsfrom sklearn.linear_model import LinearRegression#loaded_data=datasets.load_boston()data_X=loaded_data.datadata_y=loaded_data.targetmodel=L

2022-03-19 11:39:15 1221

原创 scikit-learn(sklearn)学习笔记一

import numpy as npfrom sklearn import datasetsfrom sklearn.model_selection import train_test_split#切割训练集与测试集from sklearn.neighbors import KNeighborsClassifier#K临近学习

2022-03-19 10:51:26 882

原创 愚蠢的自己

这一切都要从设置中文用户名开始因为设置了中文名,在安装python的第三方库,以及三方库的使用时遇到了许许多多的问题。我本想着从创建一个新用户来解决这一问题,但是如过按照微软官方的建议自己手头也没有硬盘让自己备份,于是我想到了annaconda,如果用annaconda创造一个新环境,再用pycharm在新环境中编辑,不是绕过了这个不想改用户名的究竟折磨问题吗,经过我一个下午的思考与实验,这个方法确实可行,希望可以帮助那些和我一样饱受这个问题折磨的同人。...

2022-03-18 20:37:33 208

原创 Concat, Merge, Join的对比(pandas学习笔记十)

我们直接用代码说明import numpy as npimport pandas as pd#测试concat()------------------------------发现concat()的连接是直接连接,不会去重----------------------------------data1 = pd.DataFrame([[1,2,3,4],[2,3,4,5]],columns=list("abcd"))data2 = pd.DataFrame([[1,1,2,2],[5,5,7,7]]

2022-03-11 17:36:31 164 1

原创 凸优化问题(西瓜书笔记五)

2022-03-10 19:31:48 132

原创 pandas学习笔记(九)

一.时序的创建1.四类时间变量名称描述元素类型创建方式① Date times(时间点/时刻)描述特定日期或时间点Timestampto_datetime或date_range② Time spans(时间段/时期)由时间点定义的一段时期PeriodPeriod或period_range③ Date offsets(相对时间差)一段时间的相对大小(与夏/冬令时无关)DateOffsetDateOffset④ Time deltas(绝对时间差)

2022-03-04 14:30:48 602

原创 pandas学习笔记(八)

一.category的创建及其性质1.分类变量的创建(a)用series创建pd.Series(["a", "b", "c", "a"], dtype="category")0 a1 b2 c3 adtype: categoryCategories (3, object): [a, b, c](b)对DataFrame指定类型创建temp_df = pd.DataFrame({'A':pd.Series(["a", "b", "c", "a"], dtype=

2022-03-04 11:00:00 307

原创 pandas学习笔记(七)

一.string类型的性质1.string与object的区别string类型和object不同之处有三:① 字符存取方法(string accessor methods,如str.count)会返回相应数据的Nullable类型,而object会随缺失值的存在而改变返回类型② 某些Series方法不能在string上使用,例如: Series.str.decode(),因为存储的是字符串而不是字节③ string类型在缺失值存储或运算时,类型会广播为pd.NA,而不是浮点型np.nan2.st

2022-03-02 22:13:44 1308

原创 pandas学习笔记(六)

我们先导入如下数据School Class ID Gender Address Height Weight Math Physics0 S_1 C_1 NaN M street_1 173 NaN 34.0 A+1 S_1 C_1 NaN F street_2 192 NaN 32.5 B+2 S_1 C_1 1103.0 M street_2 186 NaN 87.2 B+3 S_1 NaN NaN F street_2 167 81.0 80.4 NaN4 S_1 C_1 1105.0 N

2022-03-02 18:10:57 561

原创 pandas学习笔记(五)

一.append和assign1.append方法(a)利用序列号添加行(必须指定name)df_append=df.loc[:3,['Gender','Height']].copy() Gender Height0 M 1731 F 1922 M 1863 F 167s = pd.Series({'Gender':'F','Height':188},name='new_row')df_append.append(s)Gender Height0 M 1731 F 1922

2022-03-01 21:51:11 401

原创 pandas学习笔记(四)

在这次的笔记中,我们还是用上次笔记的dataframe School Class Gender Address Height Weight Math PhysicsID 1101 S_1 C_1 M street_1 173 63 34.0 A+1102 S_1 C_1 F street_

2022-02-28 21:43:19 147

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除