pytorch
HxShine
这个作者很懒,什么都没留下…
展开
-
pytorch lstm一致性测试脚本
# -*- coding: utf-8 -*-"""“sequence_models_tutorial.ipynb”的副本Automatically generated by Colaboratory.Original file is located at https://colab.research.google.com/drive/1ZmKR7oidXFyc-B8bsoX6TgGtXRRBGfcq"""# Commented out IPython magic to ensure原创 2020-09-22 11:36:01 · 280 阅读 · 0 评论 -
序列标注ner原理,CRF作用以及transformers ner使用
1.参考Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm系列模型)https://github.com/ymcui/Chinese-BERT-wwmTransformers: State-of-the-art Natural Language Processing for TensorFlow 2.0 and P...原创 2020-04-25 00:11:58 · 6768 阅读 · 2 评论 -
nl2sql_baseline项目解读(待完成)
1.目的该项目是将自然语言处理转化为mysql语句。链接:https://github.com/ZhuiyiTechnology/nl2sql_baseline首届中文NL2SQL挑战赛:https://tianchi.aliyun.com/competition/entrance/231716/introduction?spm=5176.12281949.1003.8.6f802448KX...原创 2019-07-18 00:13:43 · 2714 阅读 · 8 评论 -
lstm理解与使用(pytorch为例)
一.lstm原理可以详读:Understanding LSTM Networkshttp://colah.github.io/posts/2015-08-Understanding-LSTMs/1.结构图2.公式-遗忘门,决定哪些东西被遗忘:输入门,决定状态Cell里面的更新:输出门,决定t时刻的输出:其中,ht−1h_{t-1}ht−1为上个时间节点t-1时刻的输出,...原创 2018-12-05 23:35:34 · 54329 阅读 · 0 评论 -
pytorch 变长rnn,pack_padded_sequence使用学习记录
1 pytorch中如何处理RNN输入变长序列padding涉及到pack_padded_sequence的使用以及理解torch.nn.utils.rnn.pack_padded_sequence()torch.nn.utils.rnn.pad_packed_sequence()https://zhuanlan.zhihu.com/p/344180012.教你几招搞定 LSTMs 的...原创 2018-12-05 11:43:25 · 3879 阅读 · 0 评论 -
pytorch 查看模型参数,查看模型特定层输入输出,模型结构图绘制总结
1 参考链接大杂烩 https://zhuanlan.zhihu.com/p/33992733绘制图形时候记得安装graphviz插件 https://stackoverflow.com/questions/35064304/runtimeerror-make-sure-the-graphviz-executables-are-on-your-systems-path-aft画模型...原创 2018-08-23 15:18:18 · 23839 阅读 · 2 评论 -
深度学习图像分割整理
1 综述Semantic Segmentation using Fully Convolutional Networks over the years Jun 1, 2017https://meetshah1995.github.io/semantic-segmentation/deep-learning/pytorch/visdom/2017/06/01/semantic-segmen...原创 2018-08-22 18:05:30 · 3234 阅读 · 1 评论 -
pytorch tnt meters使用
import mathimport torchimport torchnet.meter as meterimport numpy as np m = meter.AverageValueMeter() for i in range(1, 10): m.add(i) mean, std = m.value()...原创 2018-08-16 11:26:12 · 7301 阅读 · 4 评论 -
pytorch 可视化
1.利用tnthttps://github.com/pytorch/tnt/blob/master/example/mnist_with_visdom.py#L92.启用visdonpython -m visdom.server -port 8097 &3.加log就可以看了,比tensorboard感觉还简单,虽然界面看起来还比较简陋 port = 8097...原创 2018-08-15 20:51:15 · 1921 阅读 · 1 评论 -
pytorch 分类网络使用
1.基本框架https://github.com/chenyuntc/pytorch-best-practice2.tnt记录https://github.com/pytorch/tnt3.loss函数import torchimport torch.nn as nnfrom torch.autograd import Variableimport tor...原创 2018-08-15 20:23:16 · 1260 阅读 · 0 评论 -
pytorch学习 基本组成、基本练习
1. 基本结构 pytorch主要分为以下几个模块来训练模型:tensor:tensor为基本结构,可以直接创建,从list创建以及由numpy数组得到,torch还提供一套运算以及shape变换方式。Variable:自动求导机制,利用Variable包装tensor后,便可以使用其求导的功能了,有点像个装饰器。nn:nn模块是整个pytorch的核心,自己设计的Net(),继承nn.Mo原创 2018-01-15 18:28:44 · 11745 阅读 · 1 评论 -
python35 利用matplotlib的subplot画多幅图
一 画直方图import matplotlib.pyplot as pltplt.figure("hist")arr=images.flatten()n, bins, patches = plt.hist(arr, bins=256, normed=1,edgecolor='None',facecolor='red') plt.show()二 利用subplot画多幅图import mat原创 2017-07-15 15:28:11 · 15729 阅读 · 0 评论 -
2 pytorch的权重共享
# -*- coding: utf-8 -*-import randomimport torchfrom torch.autograd import Variableclass DynamicNet(torch.nn.Module): def __init__(self, D_in, H, D_out): """ In the constructor原创 2017-05-22 14:56:21 · 6908 阅读 · 0 评论 -
1 pytorch60分钟入门教程
1 Tensorsfrom __future__ import print_functionimport torchx = torch.Tensor(5, 3) # 构造一个未初始化的5*3的矩阵x = torch.rand(5, 3) # 构造一个随机初始化的矩阵x 0.9643 0.2740 0.9700 0.2375 0.8547 0.1793 0.2462 0.888原创 2017-05-22 13:16:30 · 3196 阅读 · 0 评论 -
python 27 super继承(解决多重继承时,老办法init父类多次的问题)
一 Python类分为两种,一种叫经典类,一种叫新式类。两种都支持多继承。考虑一种情形,B继承于A,C继承于A和B, 但C需要调用父类的init()函数时,前者会导致父类A的init()函数被调用2次,这是不希望看到的。而且子类要显式地指定父类,不符合DRY原则。1 普通继承# 经典类class A(): def __init__(self): print 'A'class原创 2017-05-22 12:00:23 · 8571 阅读 · 0 评论 -
pytorch 使用
1 DataParallelfrom torch.nn import DataParallelnet = DataParallel(net)可以实现模块级别(?好处具体是啥不大懂)的并行计算,可以将一个模块forward部分分到各个gpu去计算,然后backwards时,合并gradients 到original module。 >>> net = torch.nn.DataParallel原创 2017-05-20 11:08:49 · 3735 阅读 · 0 评论