自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 【已解决】Object of type ’int64‘ is not JSON serializable python

json可以解码的数据类型基本都是常见的int,float,str类型,而numpy.array的数据类型都是numpy内置的类型,json.dumps无法支持,需要将数据转换为标准类型另外,需要注意的是,采用list(array)方法,array整体虽已是list类型,但内部数据依然为numpy内置的类型,需使用tolist()函数进行数据转换...

2021-04-25 10:36:25 1181

转载 【掩码机制】解决LSTM中特征长度不一致问题

在训练Lstm模型的时候可能会遇到这样的一个问题:特征的长度是不一样的,有的特征长度长,有的特征短,这可能会对我们训练模型造成困扰,本次分享如何解决这一问题:如题所示,使用的正是 Mask 机制,所谓 Mask 机制就是我们在使用不等长特征的时候先将其补齐,在训练模型的时候再将这些参与补齐的数去掉,从而实现不等长特征的训练问题。补齐的话使用 sequence 中的方法:from keras_preprocessing import sequenceMaxLen=15x = [[1], [2,5],

2021-04-15 09:11:01 4612 1

转载 深度学习中的注意力机制

前言本文翻译自《Attention?Attention!》博客最近几年,注意力——在深度学习社区中,已然成为最广为流行的概念和实用工具。在这篇博客里,我们将一起回顾它是如何被“发明”出来的,以及引申出来的各种变种和模型,如 transformer和SNAIL。目录Seq2Seq问题所在为”翻译“而生定义注意力机制”家族“概要自注意力机制(Self-Attention)柔性 vs 刚性注意力全局 vs 局部注意力指针网络(Pointer Network)Transformer.

2021-04-13 14:33:45 410

转载 Deep Learning中的层结构

在Deep Learning中有不同类型的网络结构,不同的网络有不同的应用范围,这些都是与其结构和设计思路相关的。最常见的网络之一是CNN(Convolutional Neural Network), 在最近几年席卷计算机视觉等相关领域,因为他强大的特征表述能力和对图像处理的得天独厚优势,CNN的设计和训练也是被研究讨论最多的一个话题。题主提到深度网络中层结构的设计和layer中节点个数的确定,我在这里姑且以CNN的网络结构设计为例讨论。首先有一些常识知识是在设计一个CNN时需要知道的,我先简单介绍

2021-04-13 14:10:37 651

原创 【已解决】win10+py3.6+anaconda3 安装fbprophet(利用安装包离线安装)

fbprophet库依赖于pystan库,因此,要安装fbprophet库,必须先安装pystan库。pystan库的安装需要用到C++编译器,在安装pystan库之前需先安装C++编译器。然而,安装Microsoft Visual C++ Build Tools很可能是一个费时费力且没有成果的事情。安装后也往往最终因后续安装中出现各种各样的问题和错误而无法顺利安装pystan和fbprophet库。本文推荐使用mingw-w64 C++编译器,提高安装pystan、fbprophet库的效率和成功率...

2021-04-13 10:20:23 1643

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除