自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

页页读

hunwenpinghao

  • 博客(16)
  • 资源 (1)
  • 收藏
  • 关注

原创 Verilog 实现卷积代码分析

代码阅读笔记code sourcem_conv_1_1 卷积部分m_conv_1_1~m_conv_1_18内容都是相同的,计算也是一样的,只是卷积核的值不同。基本思想是利用移位寄存器实现pipeline模式计算乘加运算。具体来说,先从rom中取出图片,大小为9696.串行送入864个shift寄存器,这里取卷积核大小为9x9,所以864就是9行的所有像素点数目。然后,从shift寄存器输入乘法寄存器,使用99个乘法寄存器来存储和卷积核相乘的所有像素值,该过程一共需要9个clk,开始从每行的.

2020-05-31 19:01:13 7910 1

原创 xilinx 芯片命名规则(XCVU9P-L2FSGD2104E为例)

图片来自:https://datasheet.datasheetarchive.com/originals/dk/DKDS42/DSANUWW0054054.pdf

2020-05-30 22:47:07 1622

原创 ubuntu16.04 安装 libjpeg-turbo-1.5.2 运行脚本一步完成

把下面的脚本copy到一个空文件,保存为setup.sh然后运行:sudo bash setup.sh#!/bin/bash# refer to: https://blog.csdn.net/j_boom/article/details/90320432# download packdgewget https://sourceforge.net/projects/libjpeg-turbo/files/1.5.2/libjpeg-turbo-1.5.2.tar.gztar -xzvf.

2020-05-29 23:00:47 681

转载 Ubuntu 16.04与Win10双系统双硬盘安装图解

        以前玩过ubuntu系统,后来很长时间没碰忘记了。突然想起我的电脑配置还可以,于是这几天又开始折腾了。折腾了2天,果然是忘记了,装了无数次,还删了个数据盘,最要命的把我的windows系统给毁掉了一次。我的个神啊,重装系统,重新安装工作需要的软件,心里在滴血。故,特记录下此篇文章《Ubuntu 16.04与Win10双系统双硬盘安...

2020-05-24 21:21:57 232

转载 c++ 中malloc()使用详解以及与new()的区别

一、原型:extern void *malloc(unsigned int num_bytes);头文件:#include <malloc.h> 或 #include <alloc.h> (注意:alloc.h 与 malloc.h 的内容是完全一致的。)功能:分配长度为num_bytes字节的内存块说明:如果分配成功则返回指向被分配内存的指针,否则返回空指针NULL。当内存不再使用时,应使用free()函数将内存块释放。举例:#include<stdio.h&gt

2020-05-18 22:09:44 324

转载 seekg()与tellg()用法详解

对输入流操作:seekg()与tellg()对输出流操作:seekp()与tellp()下面以输入流函数为例介绍用法:seekg()是对输入文件定位,它有两个参数:第一个参数是偏移量,第二个参数是基地址。对于第一个参数,可以是正负数值,正的表示向后偏移,负的表示向前偏移。而第二个参数可以是:ios::beg:表示输入流的开始位置ios::cur:表示输入流的当前位置ios::end:表示输入流的结束位置tellg()函数不需要带参数,它返回当前定位指针的位置,也代表着输入流的大小。假设

2020-05-18 21:40:40 4257 1

原创 最大似然估计法与贝叶斯估计最容易理解的解释

最大似然估计法与贝叶斯估计最容易理解的解释最大似然概率:已知参数估计事件发生的可能性,例如已知硬币“花”朝上的概率为 p=0.6,则求我抛一次硬币出现“花”的可能性。似然:根据样本分布求参数,例如根据100次抛硬币结果估计“花”朝上的概率。似然一般都是针对多组实验来说的,因为它要根据这多组实验拟合出一个分布,根据分布求最大值,就是我们所要求的最大似然,这个最大值所对应的的参数就是我们所要求的参数。贝叶斯估计贝叶斯估计:就是全概率公式。条件概率:P(B∣A)=P(A⋂B)P(A)P(B|A) =

2020-05-17 11:45:06 434

原创 一句话解释最小二乘法

最小二乘法最小二乘法就是最小化平方和的方法。对于样本集 {x1,x2,...,xN}\{x_1, x_2,...,x_N\}{x1​,x2​,...,xN​}中的每个样本,它与预测值 y~\tilde yy~​之间会有一个误差 ϵi=xi−y~(i∈1,...N)\epsilon_i = x_i - \tilde y \qquad (i\in 1,...N)ϵi​=xi​−y~​(i∈1,...N),则这些误差满足一个分布,数学家高斯证明了这个分布为正态分布,从而证明了最小二乘法的合理性。最小二乘

2020-05-17 10:53:34 270

原创 一句话解释ID3\C4.5算法

ID3\C4.5算法ID3算法ID3算法,ID的意思是 Iteritive Dichotomiser(迭代二分类器)。它的基本原理是对所有特征求信息增益,选出信息增益最大的特征,按照该特征对数据进行分组 D1,D2D_1, D_2D1​,D2​(二分类,所以分了两组),然后,如果每组中所有的样本都属于同一类,则创建该节点为叶子节点;否则,递归上面的步骤,一直到所有节点都为叶子节点结束递归。C4.5算法C4.5(Classifier4.5) 算法是对 ID3 算法的改进,就是将 ID3中的信息增益改

2020-05-17 10:52:45 348

转载 【熵系列-3】相对熵(或者 KL散度)

【熵系列-3】相对熵(或者 KL散度)上一篇文章我们简单介绍了信息熵的概念,知道了信息熵可以表达数据的信息量大小,是信息处理一个非常重要的概念。对于离散型随机变量,信息熵公式如下:H(p)=H(x)=Ex∼p(x)[−logp(x)]=−∑i=1np(x)logp(x) H(p) = H(x) = E_{x \sim p(x)}[-log p(x)] = - \sum_{i=1}^n p(x)log p(x) H(p)=H(x)=Ex∼p(x)​[−logp(x)]=−i=1∑n​p(x)logp(x)

2020-05-15 18:20:36 486

转载 【熵系列-2】信息熵

【熵系列-2】信息熵熵的定义:根据维基的定义,熵的定义如下:熵是接收的每条消息中包含的信息的平均量,又被称为信息熵、信源熵、平均自信息量。直白地解释就是信息中含的信息量的大小,其定义如下:H(X)=E[I(X)]=E(−ln(P(X)))H(X) = E[I(X)] = E(-ln(P(X)))H(X)=E[I(X)]=E(−ln(P(X)))其曲线如下图:上一篇文章我们简单介绍了香农信息量的概念,由香农信息量我们可以知道对于一个已知概率的事件,我们需要多少的数据量能完整地把它表达清楚,不与

2020-05-15 18:18:06 319

转载 【熵系列-1】香农信息量

【熵系列-1】香农信息量如果是连续型随机变量的情况,设ppp为随机变量X的概率分布,即p(x)为随机变量X在X=x处的概率密度函数值,则随机变量X在X=x处的香农信息量定义为:−log2p(x)=log21p(x) -log_2 p(x) = log_2\frac{1}{p(x)}−log2​p(x)=log2​p(x)1​这时香农信息量的单位为比特。(如果非连续型随机变量,则为某一具体随机事件的概率,其他的同上)香农信息量用于刻画消除随机变量在处的不确定性所需的信息量的大小。上面是香农信息量的完

2020-05-15 18:15:35 481

翻译 【论文翻译】High-Performance Long-Term Tracking with Meta-Updater

High-Performance Long-Term Tracking with Meta-Updater使用元跟新器进行高性能长期跟踪摘要:长期视觉跟踪越来越受到关注,因为它比短期跟踪更接近于实际应用。大多数排名靠前的长期追踪者都采用了离线训练的Siamese架构,因此他们无法从短期追踪者在线更新的巨大进步中获益。然而,直接引入基于在线更新的跟踪器来解决长期问题是相当冒险的,因为长期的不确定和嘈杂的观察。在这项工作中,我们提出了一个新颖的离线训练元更新,以解决一个重要但尚未解决的问题:跟踪器是否准

2020-05-12 01:30:56 3161 2

原创 LeetCode1326.灌溉花园最少水龙头数目 (hard)总结

1326.灌溉花园最少水龙头数目问题描述:在 x 轴上有一个一维的花园。花园长度为 n,从点 0 开始,到点 n 结束。花园里总共有 n + 1 个水龙头,分别位于 [0, 1, …, n] 。给你一个整数 n 和一个长度为 n + 1 的整数数组 ranges ,其中 ranges[i] (下标从 0 开始)表示:如果打开点 i 处的水龙头,可以灌溉

2020-05-11 15:21:15 597

原创 交叉熵与似然函数联系思考

交叉熵与似然函数联系1. 交叉熵−∑x∈χp(x)logq(x) -\sum_{x\in \chi}p(x)logq(x) −x∈χ∑​p(x)logq(x)p: 真实样本分布,服从参数为p的0-1分布,即 X~B(1, p);q: 待估计的模型,服从参数为q的0-1分布,即 X~B(1, q);则上式可以写为:−[pp(x=1)logpq(x=1)+pp(x=0)logpq(x=0)] -[p_p(x=1)logp_q(x=1) + p_p(x=0)log p_q(x=0)] −[pp​(x=

2020-05-11 15:14:38 281

原创 【笔记】Transformer模型(NLP)

Transformer 模型谷歌团队近期提出的用于生成词向量的BERT[3]算法在NLP的11项任务中取得了效果的大幅提升,堪称2018年深度学习领域最振奋人心的消息。而BERT算法的最重要的部分便是本文中提出的Transformer的概念。正如论文的题目所说的,Transformer中抛弃了传统的CNN和RNN,整个网络结构完全是由Attention机制组成。更准确地讲,Transformer由且仅由self-Attenion和Feed Forward Neural Network组成。一个基于T

2020-05-08 22:59:56 648

小技巧机器学习中可视化高维向量的两种方法PCA和t-SNE,以及其原理介绍和代码示例(附代码)

使用 t-SNE 方法可视化我自己的数据的 reid_features 示例

2024-04-12

Sora揭底系列模型介绍 (VAE/DDPM/SD/DiT/Sora)

Sora揭底系列模型介绍 (VAE/DDPM/SD/DiT/Sora)

2024-03-13

【PaperReading】5. Open-Vocabulary SAM

【PaperReading】5. Open-Vocabulary SAM

2024-01-12

【PaperReading】5. Open-Vocabulary SAM

【PaperReading】5. Open-Vocabulary SAM

2024-01-11

【PaperReading】5. Open-Vocabulary SAM

【PaperReading】5. Open-Vocabulary SAM

2024-01-11

DDR3L 手册

DDR3 的 datasheet资料,200多页,......................................................................................................................................................................................................................................................................................................................................................................

2018-01-18

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除