自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(30)
  • 收藏
  • 关注

原创 SCI写作句式

句式

2023-03-09 09:58:28 112

原创 安装成功timm,但使用报错的情况

from . import _imaging as core ImportError: DLL load failed while importing _imaging: 找不到指定的程序。报错为: Traceback (most recent call last): File。安装成功timm,但使用报错的情况。

2022-12-01 15:50:37 2132 1

原创 安装图pytorch_geometric工具包

安装图pytorch_geometric工具包。

2022-09-22 21:39:29 415

原创 semi-supervised classification with graph convolutional networks

先对AX做拉普拉斯变换到频域中,再做变换。拉普拉斯矩阵举例说明+GCN论文的意义。

2022-09-14 09:34:59 163

原创 【无标题】graphsage--inductive representation learing on large graphs

1、graphSASE针对新点甚至新图,主要训练aggregate函数2、论文最后讨论未来可能的方向:subgraph embedding,邻居采样方式,多模态图。

2022-09-07 20:37:10 275

原创 graph attention networks GAT

1、感受野:the size of the receptive field of our model is upper-bounded by the network.2、归纳式学习: inductive node embedding----->generalize to new graph。1、图卷积神经网络最常用的几个模型质疑,GCN,GAT,GraphSAGE。3、早期图神经网络表征学习的代表性工作,后期作为经典的baseline。1、直推式学习:学到 node embedding 为止。...

2022-08-27 16:19:33 218

原创 translaing embeddings for modeling multi-relationl data

1、知识图谱中的实体和关系的向量化表达2、负样本如何构建【首尾点h,t的随机变化】,损失函数框架3、参数空间的理解,参数和时间复杂度的理解4、trans系列的发展在超平面,不同空间等参数空间的发展设计。...

2022-08-16 15:41:59 125

原创 metapath2vec

meta-path:人为的定义有意义的路径的类别random walk是严格按照已经定义的类型路径 to walkmeta-path:有对称性。

2022-08-09 19:46:45 628

原创 SDNE:structural deepnetworkembedding

本文是半监督方法,主要是1st有标签做有监督学习,2nd做无监督学习,故将自编码器应用到图学习中,提出一个半监督学习的框架。

2022-08-08 19:51:23 513

原创 LINE:large-scale information network embedding

③deepwalk没有太多可调整的参数,line可以选择1st order,2nd order或者组合,node2vec可以调整q,p。对于高维的数据进行可视化,需要降维到2-Dspace中,一般可以利用t-SNE package包实现降维,然后进行可视化。②新点:保持其它点的embedding不变,计算新点的embedding(graphsage模型)①低度点:难以学习,因为度低邻居数少,2阶相似度难学,用高阶信息补充(采用邻居的邻居)Micro-F1:先计算总体的TP,FN,FP,再计算F1。...

2022-08-06 10:24:38 315

原创 node2vec: scalable feature learing for networks

node2vec Scalable Feature Learning for Networks随笔

2022-06-28 09:22:45 436

原创 Ubuntu安装gdal

查阅全网资料,各种pip install 和conda install,如果这种方法度不可以。我遇到的情况是:进入虚拟环境显示已经安装了gdal,但是在import gdal是依旧出现红色波浪线。(即安装成功,但是就是无法使用,因为安装好的库并没有放到对应的位置)把安装好的gdal文件夹放到自己虚拟环境/lib/python(自己版本的python文件夹中)/site-packages中完成!!!!!...

2021-08-01 11:35:12 810 1

原创 主干网络中使用DCN,出现“urllib.error.URLError:<urlopen error [Error -3] Temporary failure in name resolution”

出现“urllib.error.URLError:<urlopen error [Error -3] Temporary failure in name resolution”本人在训练网络过程中使用res_dcn等网络,其中用到DCNv2,遇到上述错误,解决办法为:删除DCNv2中的build,重新python setup.py build develop或者./make.sh,重新得到build文件。...

2021-07-20 20:23:34 1231

原创 记录ubuntu18.04+pytorch1.4训练centernet(一)

一、install:1、创建新环境conda create --name xx python=3.72、激活环境conda activate xx3、下载安装cocoapi# COCOAPI=/path/to/clone/cocoapigit clone https://github.com/cocodataset/cocoapi.git $COCOAPIcd $COCOAPI/PythonAPImakepython setup.py install --user`4、安装需要的

2021-04-21 23:58:58 357 2

原创 2021.4.20面试准备

AI算法题:1、如何做模型融合?① 简单的加权融合回归② stacking/blending③ boosting/bagging:把许多弱分类器这样融合成强分类器的思想。Bagging就是采用有放回的方式进行抽样,用抽样的样本建立子模型,对子模型进行训练,这个过程重复多次,最后进行融合。Boosting的思想是一种迭代的方法,每一次训练的时候都更加关心分类错误的样例,给这些分类错误的样例增加更大的权重,下一次迭代的目标就是能够更容易辨别出上一轮分类错误的样例。最终将这些弱分类器进行加权相加...

2021-04-20 10:40:37 74

原创 2021.4.1面试准备

1、介绍自注意力机制:self attention是注意力机制的一种,也是transformer一种所谓的自注意力机制的“自”指的是一组信息中每个信息和整组信息求注意力,也就是整组信息自己和自己求注意力,可以看作一种动态的全连接层。2、小样本问题如何解决:①...

2021-04-01 22:35:52 158

原创 2021.03.27面试

AI面试:1、介绍伪标签技术不需要手动标记不加标签的数据,而是根据标签的数据给出近似的标签。① 使用标签数据训练模型② 使用训练的模型为不加标签的数据预测标签③ 同时使用pseudo和标签数据集重新训练模型(训练的最终模型用于对测试数据的最终预测)2、空洞卷积及优缺点空洞卷积:在标准的 convolution map 里注入空洞优点:扩大感受野,捕获多尺度上下文信息3、牛顿法的推导公式用迭代的方法,来求解方程的根和最优化。牛顿法的基本思想是使用函数 f(x) 的泰勒级数的前面几项来寻找

2021-03-29 10:20:06 75

原创 2021.03.19面试

AI:1、PCA的原理PCA(principal component analysis)主成分分析方法:数据降维算法。将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。主要步骤:①输入样本矩阵②计算样本每一维的均值,计算观察值与均值之间的偏差,计算协方差矩阵③计算协方差矩阵其中的特征值和特征向量矩阵④计算总能量,选取贡献量最大的特征值⑤计算前p个特征值所对应的特征向量组成的矩阵,计算降维后的样本矩阵。2、图像处理常见的插值方法:

2021-03-20 11:30:06 89

原创 Coordinate Attention for Efficient MobileNet work Design

Coordinate Attention for Efficient MobileNet work Design 文章解读论文代码:https://github.com/Andrew- Qibin/CoordAttention论文地址:abstract:Mobile Network设计的最新研究成果表明,通道注意力(例如,SE注意力)对于提升模型性能具有显著效果,但它们通常会忽略位置信息,而位置信息对于生成空间选择性attention maps是非常重要。**因此在本文中,作者通过将位置信息嵌入到

2021-03-19 20:46:22 762

原创 2021.3.16面试准备

AI:1、LR的损失函数LR为逻辑回归模型预估,某个分类的概率其损失函数可以用均方差,对数,概率等来表示。均方差作为LR模型的距离衡量标准,最“预估错误”的惩罚太过柔和。LR模型预估的是概率,损失函数可以用联合概率分布来衡量。2、手写K-means算法k-means聚类算法:import numpy as npdef k_means(x,k=4,epochs=500,delta=1e-3): # 随机选取k个样本点作为中心 indices = np.random.rand

2021-03-17 08:39:58 63

原创 2021.3.15 CV面试准备

AI:1、过拟合的原因①数据太少②模型太复杂2、缓解过拟合方法:① 数据集增广②改进模型:提前停止训练,L1,L2正则化,Dropout层,多任务学习3、1×1卷积作用①实现跨通道的交互和信息整合②进行卷积核通道数的降维和升维4、L1 L2正则化理解① L1正则化是权重向量w中各个元素的绝对值之和L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,用于特征选择② L2正则化是权重向量w中各个元素的平方和再求平方根L2正则化防止模型过拟合5、机器学习决策树①决策树是常用

2021-03-15 22:04:34 83

原创 python修改xml文件的filename

代码块转载https://blog.csdn.net/qq_45128278/article/details/106708433?utm_medium=distribute.pc_relevant.none-task-blog-baidujs_title-2&spm=1001.2101.3001.4242import osimport os.pathimport xml.dom.minidompath = r'D:/jingdiansuanfa/data_clean/LEVIR/three_

2020-12-30 00:16:23 1028 1

原创 python从数据集中提取自己需要的种类(wins10)

本文代码出自https://blog.csdn.net/weixin_39881922/article/details/85070808但是在wins10系统下需要修改,改了一晚上,终于解决了。原作者代码点击运行结果:依次找原因:发现len(ind_start)=0依次找找找:发现是在缩进和换行写法问题:将:改为:因为:最终修改代码如下:import osimport shutilann_filepath=r'D:/jingdiansuanfa/data_clean/LE

2020-12-30 00:10:01 495 2

原创 Pytorch基于FSSD训练自己数据集+wins10

Pytorch基于FSSD训练自己数据集1、下载FSSD代码:https://github.com/dlyldxwl/fssd.pytorch2、在data中放入自己整理好的数据集如下:3、创建weights文件夹,并下载训练权重文件()4、修改data/voc0712.py文件中VOC_CLASS修改成自己的类型5、修改FSSD——VGG.py文件中的build_net的num_class修改为自己的种类(+背景)6、因为pytorch版本问题,把VGG中的RELU(inplace)进行修

2020-12-14 16:09:49 944 4

原创 IndexError: invalid index of a 0-dim tensor. Use tensor.item() to convert a 0-dim tensor to a Python

IndexError: invalid index of a 0-dim tensor. Use tensor.item() to convert a 0-dim tensor to a Pythontrain_loss += loss.data[0] 是pytorch0.3.1版本代码解决方法:#将原语句:loss_l.data[0], loss_c.data[0],loss_l.data[0], loss_c.data[0],#修改为:loss_l.item(), loss_c.ite

2020-12-09 18:11:59 103

原创 训练基于pytorch的SSD时,visdom可视化:

训练基于pytorch的SSD时,visdom可视化:①先打开visdom界面:终端输入命令python -m visdom.server②出现如下链接,③并打开界面:④开始运行代码,在界面实时出图。敲黑板:先打开visdom再运行程序。...

2020-12-09 18:03:10 544

原创 训练基于pytorch的SSD时,visdom模块不能用

在训练基于pytorch的SSD时,visdom模块不能使用:①使用pip install visdom安装pip install visdom②把标红的viz修改如下:③同时修改args.visdom:

2020-12-09 17:57:27 346 2

原创 运行SSD-pytorch的奇葩问题

SSD运行eval.py遇到的奇葩问题找不到’test.txt’文件,找来找去,发现地址出现问题。imgsetpath的地址读取不了,修改即可。

2020-12-03 10:16:00 285 5

原创 移动不需要的TXT文件和代码到其他文件夹里,而不是删除

## 本代码用于数据集的修改删除数据集中没有目标的负样本,只提取有目标的图像删除没有内容的txt文件和其对应的image数据集的labels是txt格式# 移动不需要的TXT文件和代码到其他文件夹里,而不是删除import os,sysimport shutilpath_t = 'D:/jingdiansuanfa/data_clean/LEVIR/label_clean_zero'path_tj ='D:/jingdiansuanfa/data_clean/LEVIR/imageWithL

2020-11-08 20:02:03 137

原创 python 遍历文件夹中所有txt文件,将文件中的负数变成0

python 遍历文件夹中所有txt文件,将文件中的负数变成0import os,syspath_t = r'D:/jingdiansuanfa/data_clean/LEVIR/voc_xml' #按照自己的路径进行修改txt_list = os.listdir(path_t)# print(txt_list)# print(len(txt_list))for txt_name in txt_list: txt_name = os.path.join(path_t, txt_name

2020-11-08 20:00:10 588

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除