自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(35)
  • 收藏
  • 关注

原创 nlp入门12——HMM

x 为一句话——>显状态y序列为隐的部分——>隐状态一般有 y 部分进行链接 去生成 x。

2023-09-26 22:09:32 110

原创 nlp入门11——RNN(重要)

7. `return torch.zeros((batch_size, self.hidden_size))`:在 `_initialize_hidden` 方法中,这行代码创建一个形状为 `(batch_size, hidden_size)` 的全零张量,表示初始化的隐藏状态,并将其返回。15. `hidden_t = self.rnn_cell(inputs[t], hidden_t)`:在每个时间步 `t`,调用 RNN 单元 `self.rnn_cell` 来更新隐藏状态。

2023-09-25 19:33:16 112

原创 nlp入门10——MLP(多层感知机)

感知机模型是一个线性模型(只有线性层)

2023-09-25 13:21:08 156

原创 nlp入门9——Word2vec(最基本模型之一)

上面的公式可以理解为一个损失函数预测的越正确,loss就越小。

2023-09-24 20:39:07 85

原创 nlp入门8——预训练的词表示及使用

可以理解为一个词向量。

2023-09-24 18:23:36 31

原创 pytorch,神经网络知识点——模型nlp模型预测相关代码

:这部分代码是将输入数据 `input_batch`(通常是模型的输入)传递给神经网络模型 `model`,以获取模型的输出。模型的输出通常是一个包含预测结果的张量。综合来说,这段代码的作用是获取神经网络模型对输入数据的预测输出中,每个样本的最大预测值所对应的类别索引。` 是一行Python代码,通常用于在PyTorch中获取神经网络模型的输出中的最大值所对应的类别或索引。- `1` 表示维度1,通常用于分类问题中,其中每个样本的预测输出是一个向量,维度1上的最大值对应于模型预测的类别。

2023-09-23 16:18:50 88

原创 nlp入门7——神经语言模型

x为输入 是一个拼接的向量 假设一个w为300维 则 x为1*300*k维。w1代表一个词 v代表一个映射到一个词向量。

2023-09-23 16:16:02 43

原创 nlp入门6——语言模型任务评估

P为真实的分布 Q为模型预测出来的概率分布 ——> 期望预测和真实相接近 ——> 相对熵的值应该趋近于0。H(P)为真实分布的熵(已经确定),为了使H(P,Q)最小,要让DKL(P,Q)最小。困惑度和语料库有关,只有使用相同的语料库对比不同的模型,此时,困惑度才有意义。H(熵)越大 不确定越高 当H为0是 事件确定。这里的距离应该理解为两个分布之间的差异。这里的红色信息熵错了 应该为交叉熵。表示在语料库中可以选择的词的数量。在这个表达式中 H的最大值为2。H(P,Q)为交叉熵。困惑度越小,模型越好。

2023-09-23 14:34:21 198

原创 python知识点——列表[ ]

在Python中,方括号 `[ ]` 用于创建列表(List),是一种有序的数据结构,可以容纳多个元素。列表是Python中最常用的数据类型之一,可以包含不同类型的元素,包括数字、字符串、布尔值、其他列表等。下面是一些有关方括号 `[ ]` 在Python中的常见用法和含义方括号 `[ ]` 是用于定义和操作列表的核心语法,它们在Python中非常常见并且非常有用。它们使您能够创建、访问、修改和操作列表中的数据。

2023-09-23 11:46:17 86

原创 python知识点——列表推导式

列表推导式是一种强大的工具,可以使您以紧凑的方式执行多种列表操作。但要注意,对于复杂的操作,可能会降低代码的可读性,因此在使用时要谨慎选择。

2023-09-23 11:27:37 364

原创 nlp入门5——语言模型

见课件。

2023-09-23 11:21:39 36

原创 nlp入门4——文本的向量化表示(嵌入)

one-hot在一个词典大小的空间(特别大1*40000)——> 使用矩阵来映射(40000*300维)——>向量相乘 ——> 得到1*300维的向量。一个词的one-hot编码 * 这个词典的稠密向量表示 = 这个词的稠密向量编码(定位词)使用不同语料库训练得到的语言模型不同,分类预测的结果不一样。的特征)希望输出 的词为 C 的概率最大。

2023-09-23 09:49:44 58

原创 nlp入门3——特准输入

2 pad 把每句话填充为等长的句子,方便训练,填充的长度也可以作为一个特征(向量表示为0) unk 表示不在词典里面的词,向量表示为0(无意义)CBOW模型的基本思想是,给定一个窗口内的上下文词汇,模型试图预测窗口中心的目标词汇(固定输入大小的原因)。nlp中的预训练是得到每个词的一个好的向量表示(每个词的一个合适的稠密编码)a 为one-hot的表示表示一个词的特征——>表示的向量非常长。1 词与词的距离 词的位置 都可以作为特征输入。f1~fk 为1~k个词的词向量(特征)

2023-09-22 21:01:37 33

原创 nlp入门2——nlp问题中的特征

2 (word net)更准确判断词语的意思。1 通过词源和词干推断出单词的大致特征。NNP主语 VBD谓语 NN宾语。3 把不同类型的单词进行归类。分析句子中的主谓宾(语法)

2023-09-22 19:52:42 41

原创 nlp入门1——nlp预备知识

one-hot 表示 看不出关联性——解决方法:稠密编码(词向量)

2023-09-22 19:29:31 46

原创 动手深度学习 29 残差网络 ResNet

为了防止机器学歪,ResNet通过F1作为F6的子集来解决这个问题提示:这里对文章进行总结:例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。x。

2023-08-14 15:38:40 36

原创 c++ 网络编程 1 网络编程的基本概念

socket有两种通信机制:数据流(stream)(流socket)和数据报(datagram)(数据报socket)基于UDP协议,不需要建立和维持的链接,数据可能会丢失或错乱。socket把复杂的TCP/IP协议隐藏起来,程序员只有用好socket相关函数,就可以完成网络通信。socket 就是插座,计算机的两个应用程序通过socket建立起一个通道,数据在通道中传输。基于TCP协议,有序,可靠、双向字节流通道,传输的数据不会丢失,不会重复,顺序不会乱。

2023-07-29 19:33:35 25

原创 深度学习 模型的导入和读取 土堆教程

【代码】深度学习 模型的导入和读取 土堆教程。

2023-07-22 11:25:46 415

原创 动手学深度学习 27 含并行连结的网络 GoogLeNet / Inception V3

从四个路径从不同层面抽取信息 然后在通道合并层合并这个块使用不同窗口大小的卷积层通道合并层 和 输入 图片的大小等高等宽Inception块有更少的参数个数 和 计算复杂度。

2023-07-22 10:17:09 43

原创 动手学深度学习 26 网络中的网络 NiN

NiN块使用卷积层+ 两个1 * 1 的卷积层,或者对每个像素增加了非线性NiN 使用全局平均池化层来替代VGG和AlexNet的全连接层优点:不容易过拟合和更少的参数个数。

2023-07-22 09:22:35 37

原创 动手学深度学习 25 使用块的网络 VGG

VGG使用可重复使用的卷积块来构建深度卷积神经网络,不同的卷积块个数和超参数可以得到不同复杂度的变种。

2023-07-21 16:35:24 54 1

原创 动手学深度学习 24 深度学习网络AlexNet

一、AlexNet 1.AlexNet架构 2.细节激活函数从Sigmoid变到ReLu(减缓梯度消失) 隐藏全连接层后加入丢弃层 数据增强(重要)——>对图片做很多数据的变化 AlexNet是更大更深的LeNet

2023-07-21 16:35:06 37 1

原创 动手深度学习 10 多层感知机

笔记笔记目录前言一、感知机基础定义二、训练感知机三、感知机存在的问题四、多层感知机1.学习XOR2.单隐藏层3.知识储备——>关于隐藏层的理解4.激活函数1.Sigmoid函数2.Tanh函数3.ReLU函数4.多隐藏层总结给定输入 x ,权重 w 和 偏移 b 感知机输出:只能做二分类的问题:可输出 1 和 -1 ,线性回归输出实数,softmax输出概率多层感知机使用隐藏层和激活函数得到非线性模型常用激活函数为Sigmoid , Tanh , ReLU使用 Softmax 来处理多分类。

2023-07-20 20:25:57 24

原创 动手学深度学习 23 经典卷积神经网络 LeNet

例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。PyTorch 中的一个函数,用于计算输入的 sigmoid 函数值。sigmoid 函数是一个常用的激活函数,将输入的值映射到了 (0,1) 之间,通常用于神经网络的二分类问题的输出层。是PyTorch中的一个函数,用于将输入张量展平为一维张量。它可以用于将卷积层的输出张量展平为全连接层的输入张量,也可以用于将任意形状的张量展平为一维张量。该函数的参数包括输入张量和展平后的维度大小。

2023-07-20 16:44:37 42

原创 动手学深度学习 22 池化层

加油!池化层返回窗口中的最大或者平均值池化层用于缓解卷积层对位置的敏感性有窗口大小 填充 步幅 作为超参数。

2023-07-19 23:40:38 41

原创 动手学深度学习 21 卷积层里的多输入多输出通道

输出通道是卷积核的超参数每个通道都有独立的二维卷积核,所以通道结果相加的到一个输出通道的结果每个输出通道都有独立的三维卷积核c_%7Bi%7Dc_%7Bo%7D。

2023-07-19 22:06:20 199

原创 动手学深度学习笔记 20 填充和步幅

例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考步幅是值行/列滑动的步长例:高度为3 宽度为2 的步幅(水平走两个 竖直走三个)填充和步幅是超参数填充在周围添加行和列,来控制输出的减少量步幅是滑动窗口时的行/列的步长,可以成倍的减少输出的形状p_%7Bh%7D。

2023-07-19 16:19:42 65

原创 LeetCode 347. 前 K 个高频元素 刷题日记

题目:给你一个整数数组nums和一个整数k,请你返回其中出现频率前k高的元素。你可以按返回答案。[1,2][1]

2023-07-09 20:33:36 36 1

原创 LeetCode 239. 滑动窗口最大值 代码随想录刷题日记

push(value):如果push的元素value大于入口元素的数值,那么就将队列入口的元素弹出,直到push元素的数值小于等于队列入口元素的数值为止。pop(value):如果窗口移除的元素value等于单调队列的出口元素,那么队列弹出元素,否则不用任何操作。的滑动窗口从数组的最左侧移动到数组的最右侧。你只可以看到在滑动窗口内的。思路其实挺简单的,就是单调队列,保持队列的单调性,每次取队头的元素即可。滑动窗口的位置 最大值。2 关于bug的调试。1 元素的入队和弹出。

2023-07-09 15:18:03 31 1

原创 LeetCode 1. 两数之和 哈希法 代码随想录刷题日记

哈希法可以帮助我们快速的判断元素是否出现在集合中,这题可以通过哈希法借助题目所给的条件:nums[ i ] + nums[ j ] = target ,来快速找到满足条件的组合。即,先构造一个 unordered_map 来表示哈希表,unordered_map 的查找效率为(0N (1)),当还没找到满足条件的元素是当前元素加入哈希表中。,当我们需要查询一个元素是否出现过,或者一个元素是否在集合里的时候,就要第一时间想到哈希法。1 这个题目,体现哈希表通过题目条件关系,在集合中快速找到满足条件的元素。

2023-05-07 17:44:39 26 1

原创 LeetCode 202. 快乐数 哈希表

首先,快乐数不能出现重复循环,用哈希(set,unorder_set 都可以)记录每一个数,如果没有在哈希表中出现过,即在哈希表中找不到这个元素,则加入哈希表中,如果出现过——>LeetCode 202. 快乐数。编写一个算法来判断一个数。

2023-05-06 19:16:03 33

原创 LeetCode 349. 两个数组的交集 哈希表 & vector双指针去重

2 去重:(注意unique用法)哈希映射——>unordered_set。vector 去重 + 双指针遍历。输出结果中的每个元素一定是。349. 两个数组的交集。

2023-05-06 18:34:27 45

原创 unordered_map 实现哈希表 代码随想录刷题日记

4 unordered_map 配合unordered_map<string,vector<string>> 可以实现 使用unordered_map 模拟拉链法解决冲突。3 看题解之后,我发现c++标准库中有一个 unordered_map 其底层实现为哈希表。2 再想到用拉链法解决冲突,如果用数组模拟,因为有string,所以,我不大会。是由重新排列源单词的字母得到的一个新单词,所有源单词中的字母通常恰好只用一次。1 实现想到用哈希表解决,但是此题一定会引发冲突,所以要解决冲突。

2023-05-05 11:14:35 67

原创 代码随想录刷题日记 螺旋矩阵

思路:即把n*n的区间分成四个部分(左闭右开)进行遍历,当n为奇数的时候,在矩阵之间要单独赋值。第一题 LeetCode 59. 螺旋矩阵 II。这里的loop要取min(m,n)/2。第二题 LeetCode 54. 螺旋矩阵。所有元素,且元素按顺时针顺序螺旋排列的。,返回矩阵中的所有元素。

2023-04-29 18:02:45 55 2

原创 代码随想录 数组 移除元素(暴力,快慢双指针)

当 nums[fast]!= val 时 ,即该元素可以加到结果数组中去 ,则有 nums[slow] = nums[fast];用双重循环解决,第一重:寻找在nums中与val相等的值 第二重:覆盖元素,从后往前覆盖即。元素的顺序可以改变。你不需要考虑数组中超出新长度后面的元素。slow 用来记录当前数组数组中的元素。不要使用额外的数组空间,你必须仅使用。fast 用来更新 寻找新的元素。的元素,并返回移除后数组的新长度。方法2:双指针算法(快慢指针)把后面的值覆给前面的值。

2023-04-16 19:07:21 57

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除