自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 第八课 BERT

的内积表示有多匹配,最终的得分值经过softmac就是最终上下文结果。方法一:随机mask句子中的词汇,预测被mask的是什么。使用transformer的encoder端。方法二:预测两个句子是否应该连在一起。训练BERT(有很多方法)

2023-10-18 17:24:01 45 1

原创 第七课 视频

3D卷积:比2D卷积多了一个时间维度。C3D网络(动作捕捉、识别)

2023-10-18 17:22:15 37 1

原创 linux下如何实现多个程序共用一个物理摄像头

在Linux下,可以使用v4l2loopback驱动来实现多个程序共用一个物理摄像头。v4l2loopback是一个虚拟摄像头驱动,它允许将摄像头的视频流输出到虚拟摄像头设备上,然后多个程序可以同时读取该虚拟摄像头设备的视频流。此外,如果你希望在每次启动系统时自动加载v4l2loopback模块并创建虚拟摄像头设备,可以将相关命令添加到启动脚本中,如。是物理摄像头设备的路径,你需要根据实际情况修改为你的物理摄像头设备路径。是虚拟摄像头设备的路径,可以根据需要自行调整。查看虚拟摄像头设备的路径,例如。

2023-09-21 12:34:09 723

原创 第六课 GAN

先进行卷积(图像大小越来越小,特征图数量越来越多),再进行反卷积(图像大小越来越大,特征图数量越来越少)输入数据:只需要两组图像数据集即可,无需指定对应关系,例如马/斑马。创新点 1. 图像如何学习变化 2. 没有配对的图像。,最后多一层卷积得到PatchGAN。生成器网络模型(以MNIST为例)VISDOM可视化(科学上网)GAN:对抗生成网络。

2023-09-11 22:59:23 34

原创 第六课 GAN

先进行卷积(图像大小越来越小,特征图数量越来越多),再进行反卷积(图像大小越来越大,特征图数量越来越少)输入数据:只需要两组图像数据集即可,无需指定对应关系,例如马/斑马。创新点 1. 图像如何学习变化 2. 没有配对的图像。,最后多一层卷积得到PatchGAN。生成器网络模型(以MNIST为例)VISDOM可视化(科学上网)GAN:对抗生成网络。

2023-09-11 22:57:45 21

原创 第五课 CNN文本识别

个特征图,为了解决不同种类的卷积核得到不同大小的特征图,会对特征图进行一次pooling操作。,相当于每次选取n个词,使用不同数量,不同种类的卷积核总共得到。

2023-09-11 22:57:04 47

原创 第四课 RNN

词向量模型的输入通过查表获得,网络架构类似于RNN网络,更新网络的同时也会更新Look up表。LSTM:其存在一个控制参数C用于决定什么样的信息会被保留,什么样的信息将会被遗忘(门单元)而如果使用Sofmax来进行检索,词料库太大,计算量太大,所以主流使用直接预测下一个词的方式。Skip-Gram:输入是当前词,输出是上下文。RNN 递归神经网络,用于处理时间序列。每个数据会和上个数据的输出一起作为输入。CBOW:输入是上下文,输出是当前词。BiLSTM(双向LSTM)词向量(Word2Vec)

2023-09-11 22:56:23 15

原创 第三课 torchvision

其中虚线部分会做一个1*1的卷积使特征图翻倍(使用c个卷积核就会得到c个特征图)torchvision作用:训练数据下载,数据预处理,模型下载。卷积层用于特征提取。全连接层用于分类,所以卷积层可用于迁移学习。增加数据量,更高效的利用数据。可能图片的通道顺序还要改变。

2023-09-11 22:55:09 23

原创 第二课 卷积神经网络

堆叠小的卷积核所需的参数更少一些,卷积过程越多,特征提取也会越细致。池化层:压缩,降采样(一般选用maxpool)如果希望卷积后图像大小不变,设置。结果为(batch_size,层数(带参数的才能计数)

2023-09-11 22:53:27 23

原创 第一课 简介

使用GPU进行训练:把数据和模型传入cuda。hub模块:预训练模型加载。,则不会进行上述操作。

2023-09-11 22:49:38 17

原创 第三课 文本

通过深度学习模型(例Glone,CBOW,RNN/LSTM,MF,Gaussion, Embedding等)对语料库进行训练得到,需要指定词向量的维度。示例 我们 [0.1,0.2,0.4,0.2] 爬山 [0.2,0.3,0.7,0.1]把停用词(the,an,their…你们又去爬山又去跑步 的表示为(0,1,1,1,0,1,0,1)你们又去爬山又去跑步 的表示为(0,2,2,1,0,1,0,1)错别字纠正:生成编辑距离为1,2的字符串,过滤后返回结果。示例 [我们,去,爬山,今天,你们,昨天,跑步]

2023-09-05 00:08:09 42 1

原创 第一节课 NLP介绍

空间复杂度:(入栈,出栈)原创通项公式求法(参考。

2023-09-03 21:52:20 44

原创 第二节课 问答系统结构

基于匹配的方式:(以“我们经常有意见分歧”,max_len=5为例)缺点:1. 效率慢(max_len) 2. 歧义 3. 细分可能更好。,小规模问题:直接解方程求解,大规模问题:用迭代方法求解。模型:每移动一步,智能体接收对环境的观测。控制问题:找出最优策略(主要的)小规模问题:直接解方程求解。大规模问题:用迭代方法求解。预测问题:评价给定的策略。行动价值的贝尔曼期望方程。状态价值的贝尔曼期望方程。状态价值的贝尔曼最优方程。行动价值的贝尔曼最优方程。,环境接收智能体的行动。维特比算法:示意图如下。

2023-09-03 21:48:18 25

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除