自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(46)
  • 资源 (2)
  • 收藏
  • 关注

原创 统计学知识

期望:随机变量的平均值X的nμn′​EXnX的nμn​EX−μnX的2阶中心矩称为方差。

2023-04-25 15:39:18 584 1

原创 解决RuntimeError: module compiled against API version 0xf but this version of numpy is 0xe

注:tensorflow 和 d2l 可能存在的依赖项冲突如下(目前仅发现numpy对tensorflow有影响,其他三个包对tensorflow暂无)numpy是作为构建依赖项安装的,后来安装d2l包时被固定版本(numpy==1.21.5)替换,导致了上面显示的“编译冲突”安装d2l包后import tensorflow as tf 时报以下错误。解决方法:升级numpy到最新版本。

2022-11-25 01:39:52 6237 1

原创 git & conda & linux & tmux 常用命令

git conda linux常用指令

2022-07-24 22:51:44 512

原创 Novel Slot Detection: A Benchmark for Discovering Unknown Slot Types in the Dialogue System

2021ACL论文精读:Novel Slot Detection: A Benchmark for Discovering Unknown Slot Types in the Task-Oriented Dialogue System对话系统,新槽检测,自然语言理解

2022-07-02 18:07:18 195

原创 用Attention和微调BERT进行自然语言推断-PyTorch

当需要决定一个句子是否可以从另一个句子推断出来,或者需要通过识别语义等价的句子来消除句子间冗余时,知道如何对一个文本序列进行分类是不够的。相反,我们需要能够对成对的文本序列进行推断。自然语言推断(natural language inference)主要研究假设(hypothesis)是否可以从前提(premise)中推断出来,其中两者都是文本序列。换言之,自然语言推断决定了一对文本序列之间的逻辑关系。这类关系通常分为三种类型:自然语言推断也被称为识别文本蕴涵任务。斯坦福自然语言推断语料库(Stanford

2022-06-23 15:41:06 1277

原创 用RNN & CNN进行情感分析 - PyTorch

情感分析研究人们在文本中(如产品评论、博客评论和论坛讨论等)“隐藏”的情绪。这里使用斯坦福大学的大型电影评论数据集(large movie review dataset)进行情感分析。它由一个训练集和一个测试集组成,其中包含从IMDb下载的25000个电影评论。在这两个数据集中,“积极”和“消极”标签的数量相同,表示不同的情感极性。2.预处理数据集将每个单词作为一个词元,过滤掉出现不到5次的单词,从训练数据集中创建一个词表。在词元化之后,绘制评论词元长度的直方图。从上图可以看出评论的长度各不相同,为

2022-06-21 22:42:36 3981 4

原创 组合、子集和排列—Python

目录一、无重复元素不可复选78.子集77. 组合46. 全排列二、有重复元素不可复选90. 子集 II40.组合总和 II47. 全排列 II三、无重复元素可复选(子集/组合)39. 组合总和一、无重复元素不可复选78.子集给你一个整数数组 nums ,数组中的元素 互不相同 。返回该数组所有可能的子集(幂集)。解集 不能 包含重复的子集。你可以按 任意顺序 返回解集。方法一class Solution: def subsets(self, nums: List[int]) -&gt

2022-06-15 21:12:26 652

原创 数据分析实战-酒店价格因素分析-Python

读取数据,并显示前五行看特征数据类型以及是否包含缺失值查看数值型变量数据情况描述性分析绘制对数房价数据分组和哑变量处理数据标准化对数线性回归模型

2022-06-15 21:02:59 1381

原创 泰坦尼克号分析

利用泰坦尼克数据集训练一个 SVM 模型,对泰坦尼克号上的乘客是否遇难进行建模,评估模型的效果并对结果进行适当的分析。特征解读:Pclass:乘客所持票类,有三种值(1,2,3)SibSp:乘客兄弟姐妹/配偶的个数(整数值)Parch:乘客父母/孩子的个数(整数值)Ticket:票号(字符串)Fare:乘客所持票的价格(浮点数,0-500不等)Cabin:乘客所在船舱(有缺失)Embark:乘客登船港口:S、C、Q(有缺失)一共有891组数据,其中’Age’这一特征存在一百多个缺失值,

2022-06-14 17:12:05 950

原创 解决RuntimeError: Wrong version of PyObjC C API (got 21, expected 22)

解决RuntimeError: Wrong version of PyObjC C API (got 21, expected 22)1.打开Anaconda,选择在安装TensorFlow时创建的新的虚拟环境(我当时创建的是tf_m1,就选这个)2.点击Install进行安装

2022-06-03 00:14:29 449

原创 Mac M1 安装配置TensorFlow-GPU

在Mac上安装了TensorFlow,但是import TensorFlow时却一直显示TensorFlow不存在。 直接进官网,根据苹果官方给的安装方法进行安装:https://developer.apple.com/metal/tensorf

2022-05-23 11:01:48 3665 4

原创 BERT - PyTorch

动手学深度学习笔记一、BERT1.BERT:把两个结合起来2.BERT的输入表示3.编码器4.预训练任务掩蔽语言模型下一句预测5.整合代码二、用于预训练BERT的数据集1.下载并读取数据集2.生成下一句预测任务的数据3.生成遮蔽语言模型任务的数据4.将文本转换为预训练数据集三、预训练BERT1.预训练2.用BERT表示文本一、BERT在word2vec和GloVe中,每个词都是由一个固定的预训练向量表示,而不考虑词的上下文。这些词嵌入模型都是与上下文无关的,无法解决一词多义或复杂语义的问题。随后,E

2022-05-22 17:09:23 813

原创 TD-GIN: Token-level Dynamic Graph-Interactive Network for Multiple Intent Detection and Slot Filling

TD-GIN: Token-level Dynamic Graph-Interactive Network for JointMultiple Intent Detection and Slot Filling槽填充和多意图识别、文本分类,序列标记,图神经网络,图注意力网络

2022-05-20 18:46:26 203

原创 二分查找-Python

剑指offer专项-第十一章68.查找插入位置69.山峰数组的顶部70.排序数组中只出现一次的数字71.按权重生成随机数72.求平方根73.狒狒吃香蕉68.查找插入位置难度简单给定一个排序的整数数组 nums 和一个整数目标值 target ,请在数组中找到 target ,并返回其下标。如果目标值不存在于数组中,返回它将会被按顺序插入的位置。请必须使用时间复杂度为 O(log n) 的算法。class Solution: def searchInsert(self, nums: List

2022-05-12 17:23:30 440

原创 排序&回溯&动态规划-Python

剑指Offer专项-排序&回溯&动态规划第十二章 排序74.合并区间75.数组相对排序(计数排序)快速排序76.数组中的第 k 大的数字77.链表排序(归并排序)78.合并排序链表第十三章 回溯法79.所有子集80.含有 k 个元素的组合81. 允许重复选择元素的组合82.含有重复元素集合的组合83.没有重复元素集合的全排列84.含有重复元素集合的全排列85.生成匹配的括号86.分割回文子字符串87.复原 IP第十四章 动态规划88.爬楼梯的最少成本89.房屋偷盗90.环形房屋偷盗91.粉刷

2022-04-22 12:01:15 918

原创 用常识知识增强端到端对话系统:Augmenting End-to-End Dialogue Systems with Commonsense Knowledge

对话系统,信息,响应,断言,常识,知识,常识知识库,LSTM,最大池化,attention

2022-04-01 22:18:53 528

原创 Word2Vec(Skip-Gram和CBOW) - PyTorch

一、词嵌入(Word2vec)1.Skip-Gram2.CBOW模型二、负采样和分层softmax1.负采样2.分层Softmax三、用于预训练词嵌入的数据集1.下采样2.中心词和上下文词的提取3.负采样4.小批量加载训练实例四、预训练word2vec1.前向传播2.损失函数3.训练4.应用词嵌入

2022-02-11 17:40:17 888

原创 Transformer - PyTorch

文章目录一、模型1.基于位置的前馈神经网络2.残差连接和层归一化二、编码器三、解码器四、训练和预测一、模型Transformer模型是完全基于注意力机制,所以在学习Transformer之前要知道什么是注意力,自注意力,以及多头注意力,此外还需知道位置编码是什么。可以看注意力机制相关知识点这篇博客后再学习Transformer,会发现Transformer和以往的RNN在模型架构有很多相似之处。Transformer是由编码器和解码器组成的。与注意力机制相关知识点中基于注意力实现的Seq2Seq相比

2022-02-08 21:17:37 3676 2

原创 注意力、自注意力和多头注意力

动手学深度学习笔记一、注意力评分函数1.masked softmax2.加性注意力3.缩放点积注意力二、使用注意力机制的Seq2Seq1.重新定义上下文向量2.定义注意力解码器三、多头注意力1.模型2.代码实现四、自注意力和位置编码1.自注意力2.位置编码一、注意力评分函数把注意力函数的输出结果输入到softmax中进行运算,将得到与键对应的值的概率分布(即注意力权重)。 最后,注意力汇聚的输出就是基于这些注意力权重的值的加权和。f(q,(k1,v1),…,(km,vm))=∑i=1mα(q,ki

2022-02-05 16:01:56 7406

原创 基于Seq2Seq的机器翻译-PyTorch

动手学深度学习笔记一、机器翻译1.下载和预处理数据集2.构建词表3.加载数据集二、编码器-解码器架构三、Seq2Seq1.编码器2.解码器3.损失函数4.训练5.预测6.预测序列的评估一、机器翻译机器翻译指将序列从一种语言自动翻译成另一种语言。机器翻译的数据集与语言模型的数据集不同,它是是由源语言和目标语言的文本序列对组成的,因此两者数据集的预处理过程也不同。1.下载和预处理数据集下载一个双语句子对组成的“英-法”数据集,数据集中的每一行都是制表符分隔的文本序列对,序列对由英文文本序列和翻译后的

2022-02-05 15:12:22 3884

原创 GRU、LSTM、双向循环神经网络

动手学深度学习笔记一、门控循环单元(GRU)1.重置门和更新门2.候选隐状态3.隐状态4.PyTorch代码二、长短期记忆网络(LSTM)1.输入门、忘记门和输出门2.记忆元3.隐状态4.PyTorch代码三、深度循环神经网络四、双向循环神经网络学习GRU和LSTM之前可以先看 RNN基础代码-PyTorch 这篇博客一、门控循环单元(GRU)1.重置门和更新门重置⻔允许我们控制“可能还想记住”的过去状态的数量;更新⻔将允许我们控制新状态中有多少个是旧状态的副本。Rt=σ(XtWxr+Ht−1

2022-02-03 13:54:47 1750

原创 RNN循环神经网络 - PyTorch

动手学深度学习-循环神经网络笔记一、文本预处理1.读取数据集2.Token(词元)化3.构建词表二、读取⻓序列数据1.随机采样2.顺序分区三、RNN从零实现1.预测2.梯度裁剪3.训练四、RNN简洁实现一、文本预处理常⻅预处理步骤:将文本作为字符串加载到内存中。将字符串拆分为词元(如单词和字符)。建立一个词表,将拆分的词元映射到数字索引。将文本转换为数字索引序列,方便模型操作。1.读取数据集d2l.DATA_HUB['time_machine'] = (d2l.DATA

2022-01-28 18:56:53 2118

原创 链表—Python

请你反转从位置 left 到位置 right 的链表节点,返回 反转后的链表。在设计函数时需要注意,你无法访问链表的头节点 head ,只能直接访问 要被删除的节点。例如,一个链表有 6 个节点,从头节点开始,它们的值依次是 1、2、3、4、5、6。为了符合大多数人的习惯,本题从1开始计数,即链表的尾节点是倒数第1个节点。给定单向链表的头指针和一个要删除的节点的值,定义一个函数删除该节点。给你一个链表,每 k 个节点一组进行翻转,请你返回翻转后的链表。新链表是通过拼接给定的两个链表的所有节点组成的。

2022-01-09 21:41:01 4619

原创 二叉树—Python

二叉树相关题目最核心的思路是明确当前节点需要做的事情是什么文章目录226. 翻转二叉树116. 填充每个节点的下一个右侧节点指针114. 二叉树展开为链表654. 最大二叉树105. 从前序与中序遍历序列构造二叉树106. 从中序与后序遍历序列构造二叉树222. 完全二叉树的节点个数297. 二叉树的序列化与反序列化652. 寻找重复的子树二叉搜索树(Binary Search Tree)230. 二叉搜索树中第K小的元素剑指 Offer 54. 二叉搜索树的第k大节点538. 把二叉搜索树转换为累加树7

2022-01-09 21:26:54 791

原创 LeNet | AlexNet | VGG | NiN | GoogLeNet | ResNet | DenseNet (CNN模型) - PyTorch

动手学深度学习-卷积神经网络笔记一、LeNet二、深度卷积神经网络(AlexNet)三、使用块的网络(VGG)四、网络中的网络(NiN)五、含并行连结的网络(GoogLeNet)六、残差网络(ResNet)七、稠密连接网络(DenseNet)一、LeNetLeNet:激活函数为Sigmoid,由两个部分组成:卷积编码器:由两个卷积层组成;全连接层密集块:由三个全连接层组成。查看网络结构import torchfrom torch import nnfrom d2l impor

2021-12-28 22:58:28 1214

原创 对话系统-口语理解-意图检测和槽填充:A Co-interactive Transformer for joint Slot Filling and Intent Detection

论文题目:A Co-interactive Transformer for joint Slot Filling and Intent Detection原论文地址PyTorch代码论文精简版-PPT1.背景意图检测和槽填充是构建口语理解(SLU)系统的两个主要任务。以前的研究要么用多任务框架隐式地对两个任务进行建模{\color{Red}多任务框架隐式地对两个任务进行建模}多任务框架隐式地对两个任务进行建模,要么只考虑从意图到槽的单个信息流{\color{Red}只考虑从意图到槽的单个信息流

2021-12-26 12:43:21 1758

原创 对话系统-自然语言理解-联合意图检测和槽填充:A Co-interactive Transformer for Joint Slot Filling and Intent Detection

论文题目 A Co-interactive Transformer for Joint Slot Filling and Intent Detection下载地址论文地址论文精读看这篇官方PyTorch代码

2021-12-26 12:31:35 911

原创 CNN卷积神经网络-PyTorch

动手学深度学习-CNN笔记一、从全连接层到卷积二、图像卷积1.卷积层2.学习卷积核参数3.特征映射和感受野三、填充(padding)四、步幅(stride)五、多输入多输出通道1.多输入通道2.多输出通道3.1×1卷积层六、池化层(或汇聚层,pooling层)一、从全连接层到卷积多层感知机十分适合处理表格数据,其中行对应样本,列对应特征。然而对于高维感知数据,这种缺少结构的网络可能会变得不实用。在多层感知机图像分类例子里,通过将图像数据展平成一维向量,再将数据送入一个全连接的多层感知机中,忽略了每个图

2021-12-26 12:00:57 3044

原创 【深度学习PyTorch】层和块、参数访问和初始化、保存和加载模型参数

一、层和块1.自定义块2.顺序块3.在前向传播函数中执行代码二、参数管理1.访问参数2.参数初始化3.参数绑定三、自定义层1.不带参数的层2.带参数的层四、读写文件1.加载和保存张量2.加载和保存模型参数

2021-12-25 00:58:12 1325

原创 Python第三方库-Pandas总结

文章目录一、Pandas基础1.Series创建方式2.DataFrame三种创建方式3.索引相关函数二、Pandas处理Excel数据读取数据导出Pandas数据按照特定条件筛选查看数据出现的频次数据排序删除数据数据表拼接三、pandas数据预处理非数值型变量处理重复值、缺失值及异常值处理数据分箱一、Pandas基础相较于Numpy来说,Pandas更擅长处理二维数据。Pandas主要有两种数据结构:**Series **和 DataFrame。Series类似于通过Numpy产生的一维数组,不同的

2021-12-24 11:42:09 1843

原创 常见激活函数

一、Sigmoid二、Tanh三、ReLU四、LeakyReLU五、PReLU(Parameterized ReLU)面试常见问题

2021-12-23 23:13:09 1530

原创 多层感知机总结-PyTorch

动手学深度学习-多重感知机笔记多层感知机多层感知机的从零开始实现多层感知机的简洁实现范数与权重衰减(weight decay)暂退法(Dropout)前向传播和反向传播梯度消失和梯度爆炸模型验证方法过拟合和欠拟合PyTorchpython深度学习激活函数线性回归线性模型

2021-12-23 14:12:26 3869

原创 三只松鼠商品评论分析

摘要挖掘电商商品评论中的潜在价值不仅能为销售、顾客选购商品提供科学、可供决策的信息,而且有利于指导商品用户管理和改善商品用户体验。以网络爬取的三只松鼠商品评论为例,首先对其数据进行清洗,再使用Python的wordcloud包绘制分词后的评论词云图。通过词云图结果可以看出大部分客户对三只松鼠商品的评论是好的,并且大部分会回购。本文以挖掘商品评论中隐含信息为出发点,通过文本挖掘对三只松鼠网络商品评论进行分析,不仅为三只松鼠企业网络销售提供建议,而且对消费者购买商品具有参考价值。1.背景近年来伴随着电子商

2021-12-21 23:42:37 1966

原创 口语理解-联合多意图检测和槽填充GL-GIN:Non-Autoregressive Model for Joint Multiple Intent Detection and Slot

GL-GIN: Fast and Accurate Non-Autoregressive Model for Joint Multiple Intent Detection and Slot口语理解联合多意图检测和槽填充图神经网络LSTMAttention自回归模型对话系统自然语言理解口语理解

2021-12-13 18:32:26 1740

原创 逻辑回归实战-股票客户流失预警模型(Python代码)

逻辑回归sigmoid函数绘制逻辑回归模型案例股票客户流失预警模型股票客户流失预警模型评估多项逻辑回归(多分类回归)

2021-12-12 21:12:12 3281 1

原创 论文精读 清华ERNIE:Enhanced Language Representation with Informative Entities

ERNIE原论文背景在大规模语料库上预训练的BERT等语言表示模型可以很好地从纯文本中捕获丰富的语义模式,并进行微调以提高各种 NLP 任务的性能。然而,现有的预训练语言模型很少考虑合并知识图谱,它可以提供丰富的结构化知识事实以更好地理解语言。作者认为 KG 中的实体信息可以通过外部知识增强语言表示。在本文中,通过大规模文本语料库和 KG 来训练增强的语言表示模型(ERNIE),该模型可以同时充分利用词汇、句法和知识信息。预训练模型可以从文本中捕获丰富的语义信息,使多种 NLP 任务受益,可以分为以

2021-12-10 10:37:22 1360

原创 逻辑回归和多项逻辑回归

逻辑回归,多项逻辑回归,梯度下降,多标签问题,为什么不用平方误差(MSE)作为Logistic回归的损失函数?

2021-12-09 16:50:09 2610 3

原创 模型评估指标

文章目录P-R曲线ROC曲线余弦相似度和余弦距离A/B测试模型验证方法超参数调优过拟合和欠拟合P-R曲线准确率是指分类正确的样本个数占总样本个数的比例,即Accuracy=TP+TNTP+FN+FP+TNAccuracy=\frac{TP+TN}{TP+FN+FP+TN}Accuracy=TP+FN+FP+TNTP+TN​精确率是指分类正确的正样本个数占分类器判定为正样本的样本个数的比例,即Precision=TPTP+FPPrecision=\frac{TP}{TP+FP}Precision=TP

2021-12-08 23:50:08 2570

翻译 ERNIE: Enhanced Language Representation with Informative Entities中文

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录摘要引言相关工作方法论实验总结二、使用步骤1.引入库2.读入数据总结摘要在大规模语料库上预训练的BERT等语言表示模型可以很好地从纯文本中捕获丰富的语义信息,并进行微调以提高各种 NLP 任务的性能。然而,现有的预训练语言模型很少考虑合并知识图谱,它可以提供丰富的结构化知识事实以更好地理解语言。作者认为 KG 中的实体信息可以通过外部知识增强语言表示。在本文中,通过大规模文本语料库和 KG 来训练增强的语言表示模型(ERNIE

2021-12-04 16:49:58 646

原创 LeetCode 9.回文数(Python代码)

文章目录题目Code总结题目给你一个整数 x ,如果 x 是一个回文整数,返回 true ;否则,返回 false 。回文数是指正序(从左向右)和倒序(从右向左)读都是一样的整数。例如,121 是回文,而 123 不是。示例1:输入:x = 121 输出:true示例2:输入:x = -121 输出:false 解释:从左向右读, 为 -121 。 从右向左读, 为 121- 。因此它不是一个回文数。示例3:输入:x = 10 输出:false 解释:从右向左读, 为 01 。因此它不是一个.

2021-12-03 14:50:29 604

酒店影响因素分析数据集和代码

酒店影响因素分析数据集和代码

2022-06-15

泰坦尼克号数据集和相关代码

泰坦尼克号数据集和相关代码

2022-06-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除