自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 资源 (2)
  • 收藏
  • 关注

原创 中科大DIA复习内容

DIA复习第2章 图像数字化可分离和正交图像变换图像变换成像过程:视觉过程、成像变换、成像亮度、视觉系统采样和量化空间分辨率越低,区域边界出现方块图像幅度分辨率越低,图像出现虚假轮廓 量化的比特数越多,灰度级越多连通悖论(考点)方盒量化和网格相交量化原理方盒量化:轮廓与方盒相交取方盒中心的点。定义:像素pi=(xi,yi)p_i=(x_i,y_i)pi​=(xi​,yi​), 数字化盒Bi=(xi−1/2,xi+1/2)×(yi−1/2,yi+1/2)B_i

2021-07-09 17:51:07 1729 6

原创 基于powerlevel10k的mac terminal,速度超快(无需oh-my-zsh)

ZSH 安装一般mac最新的系统都自带zsh命令,只需chsh -s /bin/zsh切换到zsh命令环境,这个环境对bash命令兼容,如果你之前配置过bash的环境,可以在~/.zshrc里面添加,最好是配置完terminal的主题后加,因为后面会覆盖你的zshrc文件。没有安装zsh命令的话,只需要brew install zshpowerlevel10k安装打开此链接github,进入到库里面,按照安装步骤:安装字体:随便下载一个字体,我是下载了第一个,然后双击下载文件,最后我们

2021-03-18 09:13:56 883 2

原创 连续和离散傅立叶变换总结及推导

连续时间复指数信号ejw0te^{jw_0t}ejw0​t是否为周期信号?x(t)=x(t+T)x(t) = x(t+T)x(t)=x(t+T) 现假设x(t)=ejw0tx(t) = e^{jw_0t}x(t)=ejw0​tejw0t=ejw0(t+T)e^{jw_0t}=e^{jw_0(t+T)}ejw0​t=ejw0​(t+T)当且仅当w0T=2π→T=2πw0w_0T=2\pi\rightarrow T=\frac{2\pi}{w_0}w0​T=2π→T=w0​2π​w0=0w_0

2020-09-13 20:26:23 2345

原创 如何完美卸载ubuntu系统的解决方法

由于我本人之前安装ubuntus双系统没把ubuntus卸载干净导致一堆问题,以下给出解决方案,网上的方法差点把我的分区表给删了。问题一:为什么你用硬盘分出来的未使用空间,linux系统读不到你这个空间呢?解决方法:因为之前我装双系统的时候卸载ubuntus的方法直接将硬盘删了,导致我的之前装ubuntus整个硬盘为基本盘变为了动态盘即简单卷,它是黄色的,如何解决呢,我是下载了分区助手,你可以...

2019-12-28 13:50:55 4133

原创 线性代数系列讲解第十一篇 马尔可夫矩阵和对称矩阵

马尔可夫矩阵马尔可夫矩阵的条件:1.所有的元素均≥0\geq 0≥0        \qquad \qquad\qquad\;\quad\;\;\; 2.每列元素加起来为1马尔可夫矩阵的特点:1.矩阵的幂也是马尔可夫矩阵        \qquad \qquad\qquad\;\quad\;\;\; 2.λ1=1\lambda_1=1λ1​=1,其他特征值的绝对值≤1\leq 1≤1举个...

2019-12-12 20:54:26 843

原创 线性代数系列讲解第十篇 特征值和特征向量

特征向量和特征值(eigenvector,eigenvalue)特征向量就是能使得AX=λXAX=\lambda XAX=λX其中λ\lambdaλ是个数,而这个λ\lambdaλ就是特征值。XXX是个非零向量。其实特征向量XXX就是经过AXAXAX还是能使得与它本身平行。我是这么想的,特征向量就代表着矩阵的正交基,矩阵对正交基的操作其实还是落在正交基上,因为其他的正交基与本正交基正交而...

2019-12-10 22:21:58 831

原创 线性代数系列讲解第九篇 线性变换

线性变换(linear transformation)矩阵其实就是做线性变换,线性变换需要两个条件,其实跟向量空间有点像。条件: 1. T(v+w)=T(v)+T(w)T(v+w)=T(v)+T(w)T(v+w)=T(v)+T(w) 2.T(cv)=cT(v)\qquad\,2.T(cv)=cT(v)2.T(cv)=cT(v)我们可以将上述两个条件写成一个式子也可以T(cv+dw)=cT...

2019-12-09 23:29:15 3516

原创 线性代数系列讲解第八篇投影及AX=b(无解情况)求近似解及最小二乘法

投影我们先考虑直线投影到直线的情况,我们会将b⃗\vec bb投影到p⃗=xa⃗\vec p=x\vec ap​=xa。我们可以利用发现e⃗\vec ee和p⃗\vec pp​垂直,因此我们可以利用向量正交性写出一下式子,我把向量上标去掉了,你们知道xxx是数即可。aT(b−xa)=0→xaTa=aTb→x=aTbaTaa^T(b-xa)=0\rightarrow xa^Ta=a^Tb\r...

2019-12-07 23:07:00 3444

原创 线性代数系列讲解第七篇 正交向量及正交空间

正交向量引出1.毕达哥拉斯定理/勾股定理(Pythagoras)我们很容易得出∣∣x∣∣+∣∣y∣∣=∣∣x+y∣∣||x||+||y||=||x+y||∣∣x∣∣+∣∣y∣∣=∣∣x+y∣∣...

2019-12-03 23:31:39 10597

原创 线性代数系列讲解第六篇 AX=b求解(针对有解情况)

AX=b各种情况AAA是mxn的矩阵,秩为rrr(r≤m,r≤nr\leq m,r\leq nr≤m,r≤n)r=nr=nr=nr=nr=nr=n表示没有自由变量,即零空间N(A)={0}N(A)=\begin{Bmatrix}0\end{Bmatrix}N(A)={0​},解AX=bAX=bAX=b,要么0个解,要么1个解。我们可以看看以下例子:直接写增广矩阵了[12b126b23...

2019-12-02 15:28:21 11928

原创 线性代数系列讲解第五篇 矩阵的秩,向量空间

向量空间(Vector Space)概念向量空间必须对数乘和加法两种运算是封闭的。那么,你肯定有疑问,什么叫做封闭性。我这里介绍一下,封闭性就是说在向量空间中的向量在数乘和加法都必须落在这个向量空间内。总结下条件:v+wv+wv+w和cvcvcv都必须在它们所在的空间(vvv和www都是向量,ccc是数)等价的方式: cv+dwcv+dwcv+dw都在它们所在的空间里(vvv和www都是向...

2019-11-30 21:37:55 1448

原创 线性代数系列讲解第四篇 矩阵的逆

矩阵的逆1.概念我们可以想想在数里面有倒数的概念,比如2∗1/2=12*1/2 = 12∗1/2=1。同样的想法,矩阵的逆也是类似的想法。其定义是:AA−1=IAA^{-1}=IAA−1=I其中A−1A^{-1}A−1就是矩阵的逆。当矩阵是方阵的时候,满足下面的方程AA−1=I=A−1AAA^{-1}=I=A^{-1}AAA−1=I=A−1A即矩阵的左逆等于矩阵的右逆。当矩阵不是方...

2019-11-29 22:55:10 2234

原创 线性代数系列讲解第三篇 行列式

行列式(determinant)1.性质注明:det是行列式的简写det I=1det\,I = 1detI=1∣1001∣=1\begin{vmatrix}1&0\\0&1\end{vmatrix} = 1∣∣∣∣​10​01​∣∣∣∣​=1交换两行,行列式的符号变号.交换偶数行, det P=1det\,P = 1detP=1交换奇数行,det P=−1det\...

2019-11-28 20:06:02 965

原创 线性代数系列讲解第二篇 高斯消元的思想

高斯消元AX=b来引出我们这个思想萌新一看到,估计懵了,这是什么鬼呀,其实不然,第一篇线性代数你已经知道了这是啥玩意,不就是这个么[2−1−12]A[x1x2]X=[03]b \mathop{\begin{bmatrix} 2 & -1 \\ -1 & 2 \\ \end{bmatrix}}\limits_{A}\mathop{\begin{bmatrix} x_1 \\ ...

2019-11-27 21:36:54 312

原创 线性代数系列讲解第一篇 矩阵

1.矩阵先简单讲解什么是矩阵,给小白们一个印象。矩阵可以是说从解方程组得来,为什么这么说呢,先举个例子:{2x−y=0−x+2y=3\left\{ \begin{array}{c}2x-y=0 \\ -x+2y=3\end{array}\right. {2x−y=0−x+2y=3​我们可以将其写成[2−1−12][xy]=[03] \begin{bmatrix} 2 & -1 \\...

2019-11-26 19:42:54 1613

原创 关于NASAS的论文笔记

一.介绍NASNAS全称是Neural Architecture Search, 就是神经网络架构搜索。这一思想主要是从迁移学习的方向引伸出来。我主要介绍它的优化问题,在NAS中,解决就是两个问题,一个是权重优化,一个是网络结构的优化。最原始的NAS优化问题如下wa∗=argminwaLt(M(a,wa))w_a^{*} = argmin_{w_a}L_t(M(a, w_a))wa∗​=ar...

2019-08-28 19:39:43 608

原创 关于mac的tensorflow1.3安装教程及minibatch如何制作

安装tensorflow流程:1.anaconda安装,这个直接去这下https://www.anaconda.com改成清华镜像conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/conda config --set show_channel_urls yes2.利用...

2019-04-29 22:51:08 395

原创 python搭建神经网络

神经网络原理神经网络的知识我就在这不多说了,主要是神经网络搭建要注意维度的问题。如果用numpy搭建,首先确保输入的维度,如果输入是个一维行向量,如果你print(input.shape),你可以看到它是这样的,比如(9, )。因为就相当于第二个维度没有,因为它认为是标量引起的。但这在计算的时候一定要注意np.dot的时候,它是将一维向量和你所相乘的矩阵的最后一维的向量依次相乘在相加。比如,...

2019-04-28 22:40:43 695

原创 SIFT原理与实战

SIFT 概述SIFT的全称是Scale Invariant Feature Transform,尺度不变特征变换,由加拿大教授David G.Lowe提出的。SIFT特征对旋转、尺度缩放、亮度变化等保持不变性,是一种非常稳定的局部特征。SIFT 原理1.高斯金字塔先从图像金字塔说起,图像金字塔是从同一个图像在不同分辨率下的到的一组结果。如下图所示然而图像金字塔缺乏尺度的特性,因此诞生...

2019-02-24 22:54:35 626

中科大数字图像分析复习

中科大数字图像分析复习

2022-01-06

全国数学建模和全美数学建模

数学建模32种方法,很有用,对于做全国数学建模或者全美数学建模都不错,这个超级好的,本人用此文档拿到了国家级大奖

2018-09-11

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除