- 博客(14)
- 收藏
- 关注
原创 一行代码生成公钥并存至服务器
host:ubuntu20client:macOSssh-keygen -y;ssh-copy-id -i ~/.ssh/id_rsa.pub username@192.168.0.101预计输入一次回车 一次服务器密码
2022-03-08 18:15:23 745
转载 OpenEXR.cpp:36:10: fatal error: ImfIO.h: 没有那个文件或目录
OpenEXR.cpp:36:10: fatal error: ImfIO.h: 没有那个文件或目录36 | #include <ImfIO.h>| ^~~~~~~~~compilation terminated.error: command ‘gcc’ failed with exit status 1ERROR: Failed building wheel for OpenEXR主要是包含目录的问题第一步conda install -c conda-forg
2022-02-28 18:11:53 2112 1
转载 【转载】imagej 16bit 批量转 8bit
ImageJ----将16bit图片拖入-----在图片上点击右键(选择“Control Panel” ) -----依次点击Image-Type-8bits------回到主界面----File-save as 即可!
2022-02-20 22:20:41 2127
原创 opencv Mat 数据类型 表格
备查类型 C1 C2 C3 C4CV_8U 0 8 16 24CV_8S 1 9 17 25CV_16U 2 10 18 26CV_16S 3 11 19 27CV_32S 4 12 20 28CV_32F 5 13 21 29CV_64F 6 14 22 30
2022-01-18 20:04:08 2567
原创 C++ 判断文件夹是否存在 并创建文件夹
#include <io.h>string dirPath = "C://....";if (_access(dirPath.c_str(), 0) == -1) //如果文件夹不存在 _mkdir(dirPath.c_str()); //则创建
2022-01-18 19:59:40 740
原创 C++ 中用 cuda 处理 Opencv的Mat数据
cuda kernel函数://16bit 对应 ushort//一般是8bit 对应char__global__ void fun(cuda::PtrStepSz<ushort> matInCuda){ int tx = threadIdx.x + blockDim.x * blockIdx.x; int ty = threadIdx.y + blockDim.y * blockIdx.y; if (tx < imgW && ty < imgH) {
2022-01-18 19:52:36 2828
原创 OpenCV 计算Mat的最值
Mat mat; //do what you wana do double min = 0, max = 0; minMaxLoc(mat, &min, &max);
2022-01-18 19:41:40 1994
原创 统计学习方法第五章
决策树决策树损失函数通常是正则化的极大似然函数信息增益的算法输入:训练数据集 DDD 和特征 AAA;输出: 特征 AAA 对训练数据集 DDD 的信息增益 g(D,A)g(D, A)g(D,A) 。设有 KKK 个类 CkC_{k}Ck,∣Ck∣\left|C_{k}\right|∣Ck∣ 为属于类 CkC_{k}Ck 的样本个数根据特征 AAA 的取值将 DDD 划分为 nnn 个子集 D1,D2,⋯D_{1}, D_{2}, \cdotsD1,D2,⋯Dik=Di∩CkD_
2021-07-25 16:14:41 49
原创 统计学习方法第四章
朴素贝叶斯法设输入空间 X⊆Rn\mathcal{X} \subseteq \mathbf{R}^{n}X⊆Rn 为 nnn 维向量的集合, 输出空间为类标记集合 Y=\mathcal{Y}=Y= {c1,c2,⋯ ,cK}\left\{c_{1}, c_{2}, \cdots, c_{K}\right\}{c1,c2,⋯,cK} 。输入为特征向量 x∈Xx \in \mathcal{X}x∈X, 输出为类标记(class label) y∈Y∘Xy \in \mathcal{Y}_{\circ}
2021-07-22 17:28:48 49
原创 统计学习方法第三章
k近邻法距离新实例最近的k个实例中占比最高的即新实例的类别度量距离设特征空间X\mathcal{X}X是nnn维实数向量空间Rn,xi,xj∈X,xi=(xi(1),xi(2),⋯ ,xi(n))T\mathrm{R}^{n},x_{i},x_{j}\in\mathcal{X},x_{i}=\left(x_{i}^{(1)},x_{i}^{(2)},\cdots,x_{i}^{(n)}\right)^{\mathrm{T}}Rn,xi,xj∈X,xi=(xi(1),xi(2),⋯,xi(n)
2021-07-22 17:28:04 54
原创 统计学习方法第二章
感知机感知机的收敛性(Novikoff定理 证明见书)线性可分的情况下有限次搜索可以找到将训练数据完全分开的分离超平面设训练数据集 T={(x1,y1),(x2,y2),⋯ ,(xN,yN)}T=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \cdots,\left(x_{N}, y_{N}\right)\right\}T={(x1,y1),(x2,y2),⋯,(xN,yN)} 是线 性可分的, 其中 xi∈X=Rn
2021-07-22 17:27:34 103
原创 统计学习方法第一章
统计学习方法监督学习注意x(i)x^{(i)}x(i)和xix_{i}xi不同XXX表示输入变量YYY为输出变量xxx表示输入变量的取值yyy表示输出变量的取值x(i)x^{(i)}x(i)表示输入xxx的第iii个特征xix_{i}xi表示多个输入变量xxx的第iii个变量xi=(xi(1),xi(2),⋯ ,xi(n))Tx_{i}=(x_{i}^{(1)},x_{i}^{(2)},\cdots,x_{i}^{(n)})^Txi=(xi(1),xi(2),⋯,xi(n)
2021-07-18 18:53:07 84
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人