自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 二维阵列数字波束形成——空间导向矢量推导

二维阵列可以测量目标两个维度的角度(一般将这两个维度分别称为方位角和俯仰角),加上目标距离信息可以获得目标在三维空间的位置信息,在自动驾驶、人员跟踪定位等方面广泛应用。本文推导了二维阵列的导向矢量,并介绍了二维波束形成方法。

2024-02-02 15:30:53 1067 2

原创 数字波束形成----导向矢量方法及其特殊形式fft

对于均匀线阵或者面阵,数字波束形成主要有基于导向矢量加权合成的方法和快速傅里叶变换方法(fft)两种,对于法线方向的目标,其最优权矢量是傅里叶变换系数。

2024-01-30 10:59:43 2087 1

原创 示波器测量脉冲信号记录——带宽选择与耦合方式

3.幅度测量精度对带宽的要求1. 基带脉冲信号测量对于基带脉冲信号,其上升/下降时间对示波器的带宽要求极高。如果比较关注上升/下降时间的测试精度,则示波器本身的上升时间一定要尽量小,这就要求带宽足够大。这时要求示波器上升时间。假设图1所示基带脉冲的脉宽为PW,周期为 PRI,则相邻谱线间距为1/PRI。对于基带脉冲信号的频谱,其频谱服从Sa(f)函数分布,脉宽PW决定了第一零点带宽,脉冲的大部分功率都集中在了第一零点带宽以内。示波器。因此如果要得到良好的观测效果,当然带宽越大越好。

2023-07-03 09:49:09 1177 1

原创 天线辐射场定义:远场、近场和菲涅尔区等概念

描述了雷达系统设计中经常遇到的不同区域的辐射场概念,包括远场、近场、菲涅尔区等

2023-06-15 10:41:27 6328 2

原创 图卷积神经网络GCN之链路预测

使用pytorch 的相关神经网络库, 手动编写图卷积神经网络模型(GCN), 并在相应的图结构数据集上完成链路预测任务。

2023-04-11 20:52:04 5412 2

原创 图卷积神经网络GCN之节点分类二

使用pytorch 的相关神经网络库, 手动编写图卷积神经网络模型(GCN), 并在相应的图结构数据集上完成节点分类任务。本文主要讲PPI数据集的处理和训练。

2023-04-11 20:41:34 916

原创 图卷积神经网络GCN之节点分类

使用pytorch 的相关神经网络库, 手动编写图卷积神经网络模型(GCN), 并在相应的图结构数据集上完成节点分类任务。

2023-04-11 20:35:38 2675

原创 手动搭建Bert模型并实现与训练参数加载和微调

前段时间学习了NLP相关的一些内容,这一篇主要记录NLP中的一个重要模型Bert模型的手动实现、如何通过自定义接口实现预训练参数的加载以及在IMDB数据集上微调模型实现文本情感分类任务。参考《动手学深度学习》搭建BERT语言模型,并加载huggingface上的预训练参数。

2023-04-11 20:15:35 1289

原创 文本情感分类模型之BERT

通过本次实验,熟悉了基于Pytorch和nvidiaGPU的深度学习开发环境搭建过程。掌握了自然语言处理中Bert模型的基本原理和实现方法,基于预训练模型的参数加载方法和基于Bert模型实现情感分析的模型架构、搭建和训练方法。通过对文本情感分类网络的调参分析和模型训练掌握了超参数调节方法、各种超参数对训练过程、模型性能的影响。

2023-04-06 10:52:18 3138

原创 Word2Vec语言模型训练和使用

在pytorch框架下,参考《动手学深度学习》搭建word2vec语言模型,并在IMDB数据集中的train子集训练得到词嵌入。

2022-12-15 10:14:51 2876

原创 基于循环卷积神经网络编写文本情感分类器

使用 pytorch 的相关神经网络库, 编写循环神经网络的语言模型,并基于本地训练或者预训练的词向量,实现文本情感分类。数据集:使用比较常用的电影评论数据集:IMDB;网络模型:使用LSTM+MLP;环境:pytorch+cuda。

2022-12-15 09:17:50 409

原创 Pytorch中的model.eval和model.train

​刚刚接触深度学习时,经常会在代码中看到model.train()和model.eval(),这里主要谈谈他们的区别和作用,以方便初学者更好的理解和掌握它。

2022-12-14 19:32:48 312

原创 Pytorch中列表、集合、字典的保存

在使用Pytorch开发深度学习任务的过程中,会将任务分为几个阶段处理。这时候遇到了将处理的中间结果保存下来,已备后续处理使用。这样可以避免每次都要重新跑整个流程。特别是像自然语言处理中词向量训练、词典建立、分词等需要较长时间但不会经常改动的处理,完全可以将处理的中间结果保存,然后在调试后续分类、翻译网络时直接加载保存的中间结果,提高调试效率。列表、集合、字典的保存,可以使用torch自带的接口函数,Python的标准库pickle为数据对象的序列化和反序列化提供了接口。

2022-12-14 19:21:40 646

原创 Pytorch 模型加载和保存

最近在使用pytorch编写深度学习代码,记录一些开发过程中遇到的问题和解决办法。这一篇主要介绍pytorch模型保存和加载过程中遇到的问题和解决办法。

2022-12-14 19:13:49 668

转载 天线的主要性能参数

天线主要考虑的性能参数1辐射方向图:以天线为中心,辐射功率密度随角坐标变化。如定向,全向。2方向性:距离天线同样距离的方向图上最大功率密度与各项同性平均功率密度之比。3增益:方向性因子乘以天线效率(辐射功率与输入功率之比)。4极化:在最大辐射方向上,随时间变化的电场描出的轨迹,如椭圆极化(线极化和圆极化)。5输入阻抗:馈电口的电压与电流之比,称为天线的输入阻抗。6带宽:可考虑方向图带宽、增益带宽、输入阻抗带宽等。7综合考虑项:尺寸、重量、功率、工作环境、成本费用等。天线的工

2022-03-08 09:15:58 11485

转载 天线辐射场区的定义

电小天线是指最大尺寸小于工作波长 1/2π或1/10的天线,电小天线一般只存在于长、中、短波和超短波波段中。近场和远场的其他说法近场和远场的起始也没有统一的定义。有认为是2 λ,有坚持说是距离天线3 λ或10 λ以外。还有一种说法是5λ/2π,另有人认为应该根据天线的最大尺寸D,距离为50D2/λ。还有人认为近场远场的交界始于2D2/λ。也有人说远场起始于近场消失的地方,就是λ/2π。...

2022-02-28 15:22:41 966

原创 linux下安装jdk8和环境变量修改

linux系统中的matlab需要编译一个java包,因此需要在linux下安装java开发包,安装环境为ubuntu18.04LTS。安装配置步骤如下:1、下载java1.8开发包jdk-8u161-linux-x64.tar.gz。2、解压下载的开发包: tar zxvf jdk-8u161-linux-x64.tar.gz。3、在/opt目录下创建jdk目录:sudo mkdir /opt/jdk。4、将解压后的文件夹拷贝至/opt/jdk目录下:sudo mv jdk1.8.0_16

2022-02-10 14:10:24 1247

原创 阵元位置误差引起的相位误差分析

误差因素分析:由于实际加工精度、阵列机械活动、振动等问题会引起阵元位置偏移,导致阵元间距与设计间距不一致,从而在通道间引入相位误差。在微带天线阵中,加工工艺、材料热胀冷缩等因素是引起阵元间距偏差的主要因素,其中加工工艺引起的相位误差在天线生产完成后是固定不变的,可以在工厂校正环节对其引起的相位误差进行校正。而由于材料热胀冷缩导致的阵元间距偏差随温度变化而变化,可以通过厂家给的温度-相位偏差表加以校正(如果厂家提供),否者无法校正。误差影响分析:以包含4个阵元的一维均匀线阵为例,各阵元相对第一个阵元的位置

2021-12-09 10:01:37 1383

原创 导频矢量推导与离散信号傅里叶变换

一、周期信号与非周期信号的傅里叶变换 对于一个周期信号而言,信号谐波之间的间隔是(Hz)。当周期较大时,谐波之间的间隔减小。对于非周期信号,基频和谐波之间的间隔会非常小,即,这时信号的频谱变为连续函数。·二、傅里叶变换的时域离散化推导 连续信号推广到离散信号,在时间域对信号进行离散采样,连续的时间t变为离散的时间。于是离散傅里叶变换为:三、傅里叶变换的频域离散化推导 由于计算时间的限制,DFT应该在有限的频率范围...

2021-11-13 11:35:43 989

二维数字波束形成-理想阵列和非理想阵列

matlab代码中包含了二维数字阵列接收信号模拟、扫描角度设置、数字波束形成权系数生成和数字波束形成的可视化显示。代码中不仅展示了理想均匀平面阵列的波束形成方法,同时也展示了非理想均匀平面阵列的波束形成方法。代码相关的理论推导参考:https://blog.csdn.net/m0_61142248/article/details/135988686?spm=1001.2014.3001.5501

2024-02-26

数字波束形成导向矢量加权和fft方法

对一维均匀线阵进行数字波束形成处理,包括目标信号生成、基于导向矢量合成的方法和快速傅里叶变换方法(fft)两种数字波束形成处理方法以及阵列空间响应(方向图)的图形化显示。

2024-01-30

在Cora和Citeseer数据集上使用GCN网络实现链路预测

在Cora和Citeseer数据集上用图卷积神经网络实现链路预测,包括GCN网络搭建、Cora和Citeseer数据集的数据预处理,以及链路预测网络的训练和测试代码。

2023-04-06

在PPI数据集上使用GCN网络实现节点分类

在PPI数据集上用图卷积神经网络实现节点分类,包括GCN分类网络搭建、PPI数据集的数据预处理,以及节点分类网络的训练和测试代码。

2023-04-06

在Cora和Citeseer数据集上使用GCN网络实现节点分类

在Cora和Citeseer数据集上用图卷积神经网络实现节点分类,包括GCN分类网络搭建、Cora和Citeseer数据集的数据预处理,以及节点分类网络的训练和测试代码。

2023-04-06

从零开始在Pytorch实现Bert模型

BERT 全称为 Bidirectional Encoder Representations from Transformer,是谷歌在 2018 年 10 月发布的语言表示模型,它的诞生对自然语言处理领域具有着里程碑式的意义。 本资源在Pytorch上从零开始实现了经典的BERT模型,包括:BertEmbeddings、BerPooler和Transformer的多头自注意力模块MultiHeadSelfAttention()和前馈模块FeedForward(),FeedForward()中的激活函数为GELU()等函数的详细代码。

2023-01-05

Pytorch下用Bert+MLP实现文本情感分类网络

在Pyrotch上实现情感分类模型,包含一个BERT 模型和一个分类器(MLP),两者间有一个dropout层。BERT模型实现了预训练参数加载功能,预训练的参数使用HuggingFace的bert_base_uncased模型。同时在代码中实现了基于预训练BERT模型的下游情感分类任务的fine_tune,包含了训练集上的训练、测试集上测试评估性能等内容。 情感分类的大致过程为:首先,将一个句子中的每个单词对应的词向量输入BERT,得到句子的向量表征。然后将句向量经过dropout层再输入分类器,最后输出二元分类预测。

2023-01-03

bert情感分类中用tokenizer实现文本预处理

在pytoch中,实现利用预训练BertTokenizer对影评数据集IMDB进行预处理,得到Bert模型所需输入样本特征。利用torch.utils.data将预处理结果打包为数据集,并利用pickle将数据集序列化保存至本地文件中。

2023-01-03

pytorch实现具备预训练参数加载功能的bert模型

在pytorch上实现了bert模型,并且实现了预训练参数加载功能,可以加载huggingface上的预训练模型参数。 主要包含以下内容: 1) 实现BertEmbeddings、Transformer、BerPooler等Bert模型所需子模块代码。 2) 在子模块基础上定义Bert模型结构。 3) 定义Bert模型的参数配置接口。 4) 定义自己搭建的Bert模型和huggingface上预训练的Bert模型的参数映射关系。 5) 定义加载huggingface上预训练的Bert模型的参数到本地Bert模型的方法。 Bert模型结构参考HuggingFace的BERT结构。主要包括BertEmbedding、BertEncoder和BertPooler三部分。参考了HuggingFace的bert_base_uncased预训练模型的结构参数,总共包含了12层Transformer。vocab_size为bert_base_uncased预训练模型的字典大小,hidden_size为768,attention_head_num为12,intermediate_size为3072。

2023-01-03

NLP中在pytorch框架下用LSTM实现情感分析

搭建LSTM网络的情感分类网络,加载预训练的word2vec语言模型参数,在IMDB训练数据集上进行模型训练,获得最优分类模型,并在IMDB测试数据集上进行测试,将训练和测试结果进行可视化展示。

2023-01-03

NLP中在pytorch框架下用LSTM实现文本情感分类

基于训练好的语言模型(使用gensim的word2vecAPI),编写了一个情感分类模型,包含一个循环神经网络模型(LSTM)和一个分类器(MLP)。首先,将一个句子中的每个单词对应的词向量输入循环神经网络,得到句子的向量表征。然后将句向量作为分类器的输入,输出二元分类预测,同样进行loss 计算和反向梯度传播训练,这里的 loss 使用交叉熵 loss。

2023-01-03

pytorch+Gensim+word2vec+IMDB

Gensim中包含了Word2Vec 模型的API。Word2Vec期望输入是进过分词的句子列表,即是某个二维数组。该模型API有多个参数可以调整,包括词向量的维度vector_size、扫描句子的窗口大小window 、训练采用的算法sg和迭代遍历语料库的次数epochs等。训练使用的数据是经过处理的CSV格式的影评数据集IMDB。

2023-01-03

NLP+word2vec+pytorch

参考《动手学深度学习》搭建word2vec语言模型,并在IMDB数据集中的train子集训练得到词嵌入。主要步骤如下: 1) 读取上一步的CSV文件,构建数据集。 2) 过滤掉词频较低的单词,过滤频率门限为5。 3) 对筛选出来的单词建立一个双向索引。 4) 将句子索引化。 5) 二次采样,将出现频率过高的单词删去一些。 6) 进行中心词和背景词的提取,窗口大小设为5。 7) 负采样。 8) 通过嵌入层和批量矩阵乘法构建跳元模型。 9) 定义损失函数为二元交叉熵损失。 10) 初始化模型参数并进行训练,得到训练结果并保存。

2023-01-03

文本情感分类,影评数据IMDB预处理,RNN,LSTM

对下载的IMDB数据集中的test和train分别进行预处理从而方便后续模型训练,代码为PreProcess.py。预处理主要包括:大小写转化、特殊字符处理、stopwords过滤、分词,最后将处理后的数据存储为CSV格式,以方便后续调试。借用了nltk的 stopwords 集,用来将像 i, you, is 之类的对分类效果基本没影响但出现频率比较高的词,从训练集中清除。

2023-01-03

PyTorch深度学习中利用前馈神经网络实现复杂函数拟合 part5

本程序实现了在PyTorch中利用前馈神经网络实现复杂函数拟合。主要包括基于nn.Module的神经网络搭建和训练方法和数据集生成、分割方法。展示了通过调参分析和模型训练过程,评估各种超参数对训练过程、模型性能的影响,并将测试结果可视化。

2022-12-15

PyTorch深度学习中利用前馈神经网络实现复杂函数拟合 part4

本程序实现了在PyTorch中利用前馈神经网络实现复杂函数拟合。主要包括基于nn.Module的神经网络搭建和训练方法和数据集生成、分割方法。展示了通过调参分析和模型训练过程,评估各种超参数对训练过程、模型性能的影响,并将测试结果可视化。

2022-12-15

PyTorch深度学习中利用前馈神经网络实现复杂函数拟合 part3

本程序实现了在PyTorch中利用前馈神经网络实现复杂函数拟合。主要包括基于nn.Module的神经网络搭建和训练方法和数据集生成、分割方法。展示了通过调参分析和模型训练过程,评估各种超参数对训练过程、模型性能的影响,并将测试结果可视化。

2022-12-15

PyTorch深度学习中利用前馈神经网络实现复杂函数拟合 part2

本程序实现了在PyTorch中利用前馈神经网络实现复杂函数拟合。主要包括基于nn.Module的神经网络搭建和训练方法和数据集生成、分割方法。展示了通过调参分析和模型训练过程,评估各种超参数对训练过程、模型性能的影响,并将测试结果可视化。

2022-12-15

PyTorch深度学习中利用前馈神经网络实现复杂函数拟合 part1

本程序实现了在PyTorch中利用前馈神经网络实现复杂函数拟合。主要包括基于nn.Module的神经网络搭建和训练方法和数据集生成、分割方法。展示了通过调参分析和模型训练过程,评估各种超参数对训练过程、模型性能的影响,并将测试结果可视化。

2022-12-15

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除