自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

JeJe_33的博客

Bonne Nuit~

  • 博客(29)
  • 收藏
  • 关注

原创 Spatial Pyramid Pooling金字塔池化

import torchimport torch.nn as nnimport mathdef _spp_pool(in_h,in_w,out_hc,out_wc): #H_out=(H_in-F+2P)/S+1 F_h=int(math.ceil(in_h/out_hc)) F_w=int(math.ceil(in_w/out_wc)) S_h=F_h S_w=F_w P_h=(F_h-1)*S_h+F_h-in_h P_w=(F_w-1)*S

2022-03-23 21:51:37 1346

原创 数字图像信号-灰度内插

1.概述灰度内插法主要针对在图像处理过程中,小数像素坐标取值问题,有最邻近元,双线性内插,三次内插三种,精度复杂度依次增加,在此记录2.最邻近元法选择待求点四邻像素中最近的灰度为内插灰度,但该项会造成不连续degree(a,b)=degree(round(a),round(b))3.双线性内插即使用相邻四像素构成两条直线从而获得位置,如图所示,假定四周点为(i,j),(i+1,j),(i,j+1),(i+1,j+1),所求点为(i+u,j+v)对于黄点位置(i,j+v)可以表示为f(i

2021-10-19 03:39:30 2333

原创 VGGNet

1.概述VGG网络在2014年的图像分类竞赛中获得第二名,验证了小卷积核对特征的强大的提取能力,并且把卷积层深度推到了16-19层

2021-09-20 16:03:16 1104 2

原创 word2vec-CBOW原理及实现

1.简介word2vec用于提取embedding向量使用较多,即当结果较多时,如果使用onehot编码,每个特征会得到一个[0,0…,1,0,…0]的矩阵,维度较多,因此通过构建一个预测模型,在模型拟合效果较好时,使用内参作为对应的各特征向量。2.模型构造2.1 对每个特征向量(零一向量)对于每个个长度为V(即存在v个特征)的特征向量,输入到输出如下图所示:即通过W与W’矩阵后,输出一个与输入相同长度的矩阵,取softmax结果视为预测结果。2.2 CBOW结构假设每个特征长度为k,选取

2021-09-19 13:56:23 1530 2

原创 Resnet 50 残差网络

1.简述resnet50是何凯明提出,能有效解决深度网络退化问题的一种结构,将输入的多重非线性变化拟合变成了拟合输入与输出的残差,变为恒等映射,50即50层膜拜巨神:https://github.com/KaimingHe2.基础框架将block分为两类,block1适用于resnet34及以下,仅有两层结构,需要注意的是,至少应该保证两层,如果只有一层,即out=F(x,wi)+x=wix+b+xout=F(x,w_i)+x=w_ix+b+xout=F(x,wi​)+x=wi​x+b+x仍为线

2021-07-16 13:21:58 6304

原创 雪球结构期权

1.概述雪球类期权,可以认为是与发行商进行的一个对赌,即赌未来标的(挂钩的产品,比如中证五百)到期日前不会产生过大跌幅,到期日或者KO(敲出,即观察日(发行商规定)超出给定涨幅)即可获得发行商承诺的年化收益率2.详述2.1 结束标准期权合约结束只有两种可能,第一是时间,到达到期日自动结束,第二是KO,合约过程中观察日一旦达到敲出价格自动结束。2.2 多种可能标的波动,幅度较小获得年化收益率利息+本金标的跌破敲入价,中途未敲出一旦敲入,则失去年化收益率,损失为期末价格与期初价格的差值(也

2021-07-07 10:56:11 6826

原创 2021“中兴捧月“图灵赛道总结

赛道选择上还是出了些问题,对于编解码不够熟悉导致决赛在理解题意上就费了不少时间,不过也是第一次参加这种竞赛,也算是有所收获了,而且zte的工作人员都挺热情的,接下来会更多刷题和刷题思路的更新了。1.初赛初赛就是对YUV视频进行压缩,大概做法有使用ffmpeg直接转换格式进行压缩或者使用Huffman树重新编码,相对来说我选择的是偏向数据处理,用了个svd压缩,大概思路如下:压缩思路:已知分解出的sigma对角线矩阵前10%对角线元素包含99%以上的矩阵信息,即假设原数据矩阵为mn矩阵,分解后得到mm

2021-06-30 16:50:20 315

原创 tensorflow常用函数

张量:多维数组#零向量tf.zeros()#1数组tf.ones()#自定义全a数组tf.fill([2,2],a)#2*2大小#创建常量tf.constant(内容,dtype=数据类型)#生成正态随机数tf.random.normal(维度,mean=均值,stddev=标准差)#生成截断式正态随机数,数据更加集中tf.random.trancated_normal()#均匀分布随机数tf.random.uniform(维度,minval=,maxval=)#更改数据类型

2021-06-17 10:58:36 106 1

原创 LGSS-一种多模态电影幕分割方法

1.简介该方法发布于IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2020,由 港中文商汤联合实验室与香港中文大学合作发作GitHub地址:https://github.com/AnyiRao/SceneSeg网站地址:https://anyirao.com/projects/SceneSeg.html...

2021-06-15 21:19:15 2984 2

原创 LSA算法——潜在语义分析概率潜在语义分析

1.简介LSA使一种无监督学习方法,主要用于文本的话题分析,其特点使通过矩阵分解发现文本与单词之间的基于话题的语义关系。潜在语义分析通常将文本集合表示为单词-文本矩阵,对单词-文本矩阵进行奇异值分解或非负矩阵分解(non-negative matrix factorizatiion,NMF),从而得到话题向量空间以及文本在话题向量空间的表示。2.相关概念2.1 单词向量空间给定一个含有n个文本的集合D={d1,d2,...,dn}D=\{d_1,d_2,...,d_n\}D={d1​,d2​,...

2021-05-15 20:04:27 1819

原创 主成分分析法PCA

1.简介主成分分析(principal component analysis,PCA)是一种常见的无监督学习方法,其通过正交变化将线性相关变量表示的观测数据转换为少数几个由线性无关变量表示的数据,线性无关的变量称为主成分。主成分的个数通常小于原始变量个数,因此可以通过主成分分析进行降维。PCA常用于发现数据的基本结构及用于其他机器学习方法的预处理。主成分分析先将给定数据规范化,使得每一变量均值为0,方差为1,然后通过正交变换变成由若干个线性无关的新变量表示的数据。新变量是可能的正交变换中变量的方差的和(

2021-05-10 08:23:25 418 1

原创 无监督学习-SVD奇异值分解

1.定理及性质1.1基础概念奇异值分解(singular value decomposition)是一种矩阵因子分解方法,即任意m x n矩阵,都可以分解为三个矩阵的乘积(因子分解),分别为m阶正交矩阵,由降序排列的非负的对角线元素组成的m x n对角矩阵以及n阶正交矩阵。奇异值必定存在但不唯一,可以看成矩阵数据压缩的一种方法,即用因子分解的方式近似地表示原始矩阵,这种近似是在平方损失最优情况下的近似。A=UσVTA=U\sigma{V^T}A=UσVT条件:UUT=IUU^T=IUUT=IV

2021-05-02 23:22:21 528

原创 聚类方法

1.基本概念1.1 相似度或距离聚类的核心概念是相似度(similarity)或距离(distance),有多种相似度或距离的定义,根据问题特性选择不同相似度。1.1.1 闵可夫斯基距离闵可夫斯基距离越大相似度越小,距离越小相似度越大dij=(∑1m∣xki−xkj∣p)1pd_{ij}=(\sum^m_1|x_{ki}-x_{kj}|^p)^\frac{1}{p}dij​=(∑1m​∣xki​−xkj​∣p)p1​当p=1时,称为曼哈顿距离当p=2时,称为欧氏距离当p=∞时称为切比雪夫距离

2021-04-19 18:44:53 188

原创 提升AdaBoost与提升树(boosting tree)

1.简介

2021-04-03 13:51:58 273 2

原创 神经网络

1.简介神经网络可以看成是含有多个变换层的感知机模型,变换层会把上一层的输出当成输入,经过一番内部护理后把输出传给下一层。一般而言,神经网络算法包含以下三部分将输入经过多层变换层后得到输出将输出与真值比较得到损失函数梯度利用梯度更新模型各参数2.前向传导算法3.常见激活函数3.1逻辑函数sigmoidϕ(x)=11+e−x\phi(x)=\frac{1}{1+e^{-x}}ϕ(x)=1+e−x1​3.2正切函数ϕ(x)=tanh(x)=1−e−2x1+e−2x\phi(x)=tan

2021-03-01 00:18:06 275

原创 感知机模型

1.简介感知机(perceptron)对应于输入空间(特征空间)中将实例划分为正负两类分离超平面,属于判别模型,是神经网络及支持向量机的基础。2.感知机模型2.1感知机若输入空间(特征空间)为χ∈Rn\chi\in R^nχ∈Rn输出空间为Y∈{+1,−1}Y\in\{+1,-1\}Y∈{+1,−1}输入x表示实例的特征向量,对应于输入空间的点,输出y表示实例类别。对应函数表示为f(x)=sign(wx+b)f(x)=sign(wx+b)f(x)=sign(wx+b)则为感知机。w为权值向量,b

2021-02-21 21:19:01 209 1

原创 SVM支持向量机模型-SMO最小最优算法

1.支持向量机简介支持向量机是一种二类分类模型,定义在特征空间上的间隔最大的线性分类器,间隔最大使其有别于感知机。即求解凸二次规划的最优化算法,包括线性可分支持向量机,线性支持向量机以及非线性支持向量机三种。2.线性可分支持向量机训练数据线性可分时调用,通过硬间隔最大化学习2.1函数间隔对于给定训练数据集T与超平面(w,b),定义超平面关于样本点的函数间隔为γi′=yi(wxi+b)\gamma_i'=y_i(wx_i+b)γi′​=yi​(wxi​+b)定义超平面关于训练集的函数间隔为超平

2021-02-20 04:43:21 348

原创 机器学习分类问题常用评判指标

1.分类问题1.混淆矩阵[TPFPFNTN]\begin{bmatrix}TP&FP\\\\FN&TN\\\\\end{bmatrix}⎣⎢⎢⎡​TPFN​FPTN​⎦⎥⎥⎤​真正率:TPR=TP/(TP+FN)假正率:FPR=FP/(FP+TN)假负率:FNR=FN/(FN+TP)真负率:TNR=TN/(TN+FP)from sklearn.metrics import confusion_matrix2.准确率即正确预测的例子(正与负)除以总数accuracy

2021-02-17 03:13:11 2682 4

原创 逻辑斯谛回归logistic regression-最大熵

1.定义1.1逻辑斯谛分布服从逻辑斯谛分布的X具有以下分布函数与密度函数F(x)=P(X≤x)=11+e−(x−μ)γF(x)=P(X\leq x)=\frac{1}{1+e^{\frac{-(x-\mu)}{\gamma}}}F(x)=P(X≤x)=1+eγ−(x−μ)​1​f(x)=F′(x)=e−(x−μ)γγ(1+e−(x−μ)γ)2f(x) = F'(x)=\frac{e^{\frac{-(x-\mu)}{\gamma}}}{\gamma({1+e^{\frac{-(x-\mu)}{\ga

2021-02-16 21:03:39 303 1

原创 决策树分类模型-ID3 C4.5 CART

1.简介根据损失函数最小化原则建立决策树模型损失函数一般是正则化的极大似然函数本质上为从训练数据集中归纳出的一组分类规则每一个子结点对应一个特征取值,叶节点即一个类步骤特征选择、决策树生成、决策树修剪42.特征选择2.1 熵使用熵度量随机变量不确定性P(X=xi)=piP(X=x_i) = p_iP(X=xi​)=pi​则熵定义为H(X)=H(p)=−sum(pilogpi)H(X)=H(p)=-sum(p_ilogp_i)H(X)=H(p)=−sum(pi​logpi​)对于条件概

2021-02-13 05:55:23 1204 2

原创 排序算法小结

1.二分法利用元素间次序关系,将元素集进行对半查询时间复杂度O(logn)思路:二分法遍历数组,直到找到数组下标与元素不符的情况 if nums == []: return 0 if nums[-1]==len(nums)-1: return len(nums) left = 0 right = len(nums)-1 while left<right: if nums[(left+right)//2] != (left+right)//

2021-02-10 17:33:44 327

原创 单调栈算法

维护一个单调栈,正序排列,进行遍历,不满足条件放入栈,满足条件则对栈内元素所在位置处理,遍历一次后所有元素解决单调栈分为单调递增栈或单调递减栈,适用于需要比较大小关系且与元素位置有关的问题单调栈方法:1.构建栈储藏满足(递增||递减)关系的元素位置,一般按照题意反向取增减关系2.遍历,当第i个元素符合题意时,将之依次与栈中元素比较,pop元素,并求出元素对应所需值3.依照题意取值leetcode 42 接雨水说明单调栈分析:1.接雨水需要比较容器左右边高2.可以看成是多个容器拼接,容器位

2021-02-08 07:20:24 861 5

原创 贝叶斯分类

1.朴素贝叶斯法基于贝叶斯定理与特征条件独立假设的分类方法;1.1步骤:a.给定训练集,基于特征条件独立假设学习输入输出的联合概率分布;b.基于模型对给定x利用贝叶斯定理求出后验概率最大的输出y。1.2 先验概率分布及条件概率分布先验概率分布P(y=ck)k=1,2,3...KP(y=ck) k=1,2,3...KP(y=ck)k=1,2,3...K条件概率分布P(X=x∣Y=ck)=P(X1=x1...Xn=xn∣Y=ck)P(X=x|Y=ck)=P(X^1 = x^1...X^n =

2021-02-04 15:28:14 185 1

原创 java基础数据结构及应用-1

1.Arraya.创建数据类型 [] 变量名int[] array= new int[n]//创建大小为n的数组,默认为nullint[] array={1,2,3,4}//直接赋值b.复制数组循环取出old数组中数据并放入new数组|System.arraycopy(old,0,new,0,old.getlength())c.数组切片//依旧使用arraycopy|java.util.Arrays.copyof(old,len)|java.util.Arrays.copyof

2021-02-04 02:19:39 169 3

原创 MySQL-排序与移动平均

MySQL提供多种函数对数据库进行排序1.row_number() over()*注,over内分组使用partition by 而不是 group byselect row_number() over(patition by student_id order by age asc) rank2.rank()值相同排序一致,后续跳过,如存在俩id为1,一个id为2,对id排序,存在两个rank=1,然后rank=3;select rank() over()3.dense_rank()与

2021-02-02 21:20:35 685

原创 获得第k小数-二分法的巧妙应用

寻找第k小数已知:双数组已排序,求所有元素中第k小(大)的数该题解法有多种:1.暴力解法,对所有元素排序,取出第k小数;2.双指针,从各数组首位开始比较,更小的删除,遍历直到删除k-1个元素,则此时指针指的元素中更小值满足条件;3.时间复杂度o(log(m+n)),容易想到二分法,结合双指针做法,即每次删除k//2个元素,以下详细说明#第k小数通用def getkminnumber(n1:List[int],n2:List[int],k): #定义更长数列在前

2021-01-30 19:00:26 439

原创 mysql-DDL+DML+DQL

通用规则:sql语句可单行或多行书写,以分号结尾;mysql中的sql不区分大小写;单行注释规则:单行__注释内容 (仅限mysql:#注释内容)多行注释规则:/注释内容/DDL(数据定义语言)查询和创建A:数据库名b:表名b1,b2…bi:列名ASCII:字符集名show databases;#查询所有show create database;#查询数据库创造时代码create database (if not exists A)(character set ASCII);a

2021-01-25 10:55:11 171

原创 最小生成树算法-prim与kruskal

生成树:即n个顶点构成只有n-1条边的树算法:加边(Kruskal):依照最短路径从最近到最远,构成n/2棵子树,子树最短路径连通,依次循环加点(prim):使用两个集合,一个集合A为最小生成树中的点,另一个B为未加入的点,每次寻找两集合点中最小值,并将对应B中点删除,加入Apy代码:力扣1584...

2021-01-20 23:04:18 228 4

原创 并查集解题

在刷题过程中遇到并查集方法,在此记录:对并查集思路尝试解释:1.创建parent表,初始值为表中parent[x]=x,即默认初始时所有子块分别为单独子块,cnt记录连通子块个数(初始为len)2.find函数:查找根节点,不断向上追溯3.connected函数:使用find判断当前两位置的根节点位置是否相同,如果相同,在union中返回空值跳过后续4.union函数:将根节点不同的子块连通(通过将根节点1在parent中的位置数值由1改为2)连通一次子块个数cnt-1.力扣947:在这里插

2021-01-16 00:33:02 335 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除