自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 问答 (1)
  • 收藏
  • 关注

原创 科学计算库Numpy基础&提升(理解+重要函数讲解)

对于同样的数值计算任务,使用numpy比直接编写python代码实现更高效更简洁,本文会从numpy核心对象ndarray出发,介绍numpy常用数组索引方法,各种创建array数组的方法,数组操作、计算、合并等函数等......

2022-07-10 16:42:24 326 2

原创 华为网络人工智能NAIE日志异常检测竞赛

比赛任务引入AI算法进行日志异常检测,日志异常检测的通常做法分为4步:收集日志。华为已经准备好了日志数据,并划分为了训练集和测试集。日志解析。日志解析又称模板提取。日志解析的目的是将非结构化或半结构化的日志数据转换为结构化模板数据。日志通常是由代码中对应的“模板”打印出来,例如:模板“Received block * of size * from *”可以用print函数打印出来一条日志Received block blk_321 of size 67108864 from /10.251.198

2020-10-28 08:12:05 1084

原创 莫烦NLP学习笔记--04注意力

要解决的问题计算机如果听到一个长句直接回答,可能会有“失忆”或者“找不到重点”的问题如何注意情感分析简单例子,线条越粗的部分模型注意力越集中翻译简单例子,

2020-10-15 10:19:42 182

原创 莫烦NLP学习笔记--03理解句子

Seq2Seq生成模型Encoder和DecoderEncoder化繁为简,将句子转成标准的向量表达,提取最有用的特征;Decoder将向量化表达转变成其他的表达形式,将压缩好的信息解压成另外一种形式翻译翻译可称作seq2seq,将一个 sequence 转换成另一个 sequence,即用Encoder压缩并提炼第一个sequence的信息,然后用Decoder将这个信息转换成另一种语言。优化避免前期捡了芝麻后期丢了西瓜,如果使用 beam search, 我们不仅仅关注当前最优策略

2020-10-14 16:37:41 193

原创 莫烦NLP学习笔记--02理解词语

词向量如上一篇博客所述,文章可用TF-IDF算法表示为向量,相应的,词语也可以表示为特定的多维向量,即词向量。只要是词语在一个方向上,我们就认为他们是相近的,这时我们就能用cosine 相似度来测量两个向量的夹角大小。越有区分力的词可能越远离中心地带,因为他们和其他词都不像,而越通用,在每种场景都有的词,就可能越靠近原点。这时,点与点的距离就能告诉我们词的频率性特征。理解:只要两个词总在一起出现,他们之间的关联性应该越强,距离应该也越近。我们想一想,如果一个词不仅出现的频率高,而且任何句子中都

2020-10-14 15:05:03 190

原创 莫烦NLP学习笔记--01搜索

搜索引擎如何工作构建索引搜索引擎不会储存一篇文章的所有信息,而是挑选重点比如标题、时间、正文等信息给予不同权重存储起来。搜索引擎在搜索的时候,不会临时从全网找材料,而是将刚刚收集到的信息提前构建成索引,存储在便于快速检索的数据库中。只在自己的数据库中搜索,使及时搜索更有效率。数值匹配搜索文字和图片视频等信息都可以被深度学习网络转换为统一的数字形态,对比相似性就可以实现多模态搜索。搜索过滤由于深度学习速度较慢,先使用更传统的方法过滤,在后续步骤中再使用深度学习。正排/倒排索引—批量召回技术

2020-10-12 20:48:49 213

原创 Python100days学习笔记--05构造程序逻辑

05构造程序逻辑05构造程序逻辑一些经典的案例和习题。经典的例子1. 寻找水仙花数。说明:水仙花数也被称为超完全数字不变数、自恋数、自幂数、阿姆斯特朗数,它是一个3位数,该数字每个位上数字的立方之和正好等于它本身,例如:13+53+33=1531^3 + 5^3+ 3^3=15313+53+33=153。 """ 找出所有水仙花数 """ for num in range(100, 1000): low = num % 10 mi

2020-10-12 16:35:52 156

原创 远程服务器(已配置)运行深度学习算法踩坑

查看可使用的显卡nvidia-smi由上图可知显卡0目前空闲,可以用来运行我们的代码根据代码文档激活环境我这里使用anaconda激活了预先安装的pytorch1.6以及python3.6的环境,操作如下:conda activate torch16py36选择显卡运行代码使用单个GPU加速计算若代码中有设定默认显卡,则设置默认显卡为0,直接开始运行python xxxx.py若没有设定默认显卡,可以在命令前设置空闲显卡可见,屏蔽其他显卡CUDA_VISIBLE_DEVIC

2020-10-12 11:10:44 1261

原创 论文翻译/笔记--DialogueRNN: An Attentive RNN for Emotion Detection in Conversations

摘要对话中的情感检测是许多应用的必要步骤,包括对聊天历史的 意见挖掘、社交媒体线程、辩论、论证挖掘、了解实时对话中的消费者反馈等。 目前,系统不会通过适应每个话语的说话者来单独对待谈话中的当事人。 在本文中,我们描述了一种基于递归神经网络的新方法,它在整个对话过程中跟踪独立当事人(individual party)的状态,并将这些信息用于情感分类。 我们的模型在两个不同的数据集上的性能远远超过了最先进的水平。介绍目前的系统,包括最先进的系统(Hazarika 等人)。 在谈话中不以有意义的方式区分不同

2020-10-08 10:42:39 1409

原创 pytorch官方教程笔记--02神经网络

神经网络神经网络可以通过 torch.nn 包来构建。一个 nn.Module 包括层和一个方法 forward(input) 它会返回输出(output)。例如,看一下数字图片识别的网络:典型的神经网络训练过程包括以下几点:1.定义一个包含可训练参数的神经网络2.迭代整个输入3.通过神经网络处理输入4.计算损失(loss)5.反向传播梯度到神经网络的参数6.更新网络的参数,典型的用一个简单的更新方法:weight = weight - learning_rate *gradient

2020-10-05 11:07:43 294

原创 Python100days学习笔记--04循环结构

04循环结构for-in循环for-in循环用于明确的知道循环执行的次数或者要对一个容器进行迭代(后面会讲到),例如下面代码中计算1~100求和的结果"""用for循环实现1~100求和"""sum = 0for x in range(101): sum += xprint(sum)需要说明的是上面代码中的range(1, 101)可以用来构造一个从1到100的范围,当我们把这样一个范围放到for-in循环中,就可以通过前面的循环变量x依次取出从1到100的整数。当然,ra.

2020-10-05 09:54:10 167

原创 Python100days学习笔记--03分支结构

03分支结构03分支结构if语句的使用在Python中,要构造分支结构可以使用if、elif和else关键字。所谓关键字就是有特殊含义的单词,像if和else就是专门用于构造分支结构的关键字,很显然你不能够使用它作为变量名(事实上,用作其他的标识符也是不可以)。下面的例子中演示了如何构造一个分支结构。"""用户身份验证"""username = input('请输入用户名: ')password = input('请输入口令: ')# 用户名是admin且密码是123456则身份验证

2020-10-05 09:49:53 173

原创 python100days学习笔记--02语言元素

原文:https://github.com/jackfrued/Python-100-Days语言元素变量和类型Python 3.x中整数只有int这一种了,而且支持二进制(如0b100,换算成十进制是4)、八进制(如0o100,换算成十进制是64)、十进制(100)和十六进制(0x100,换算成十进制是256)的表示法。浮点型:浮点数也就是小数,之所以称为浮点数,是因为按照科学记数法表示时,一个浮点数的小数点位置是可变的,浮点数除了数学写法(如123.456)之外还支持科学计数法(如1.23

2020-10-05 09:45:03 123

原创 pytorch官方教程笔记--01基本概念与自动微分

基础1入门pytorch基础概念,类似于numpy的ndarrays,好处是可以使用GPU进行计算构造矩阵的不同方式:from __future__ import print_functionimport torchx=torch.empty(5,3)print(x)x=torch.rand(5,3)print(x)x=torch.zeros(5,3,dtype=torch.long)print(x)x=torch.tensor([5.56,5,3],dtype=float)pr

2020-09-15 17:37:03 131

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除