自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 python保存与读取.npy文件

python保存与读取文件

2022-04-08 10:06:02 1076

原创 python数据文件查看与另存

import numpy as npimport matplotlib.pyplot as plt# 1.可视化data = np.load('./data/01.npy', encoding="latin1") # 加载文件y = data[1, 0:] # 取第一行数据# print(len(y), y)# print(x)plt.plot(y)plt.show()# 2.另存import pandas as pddata1 = np.load('./data/01.npy'

2022-03-30 15:56:52 1674

翻译 译(Transformer) NIPS-2017 ---Attention Is All You Need

Attention Is All Y ou Need摘要  包括编码器和解码器的主要序列转换(sequence transduction)模型是基于复杂的循环或卷积神经网络的。性能最好的模型还通过注意机制(attentionmechanism)连接编码器和解码器。我们提出了一种新的简单网络架构—Transformer,它完全基于(based solely on)注意力机制,且完全摒弃了循环和卷积。在两个机器翻译任务上的实验表明,这些模型在质量上更优,同时具有更强的并行性(parallelizable)

2022-03-29 11:06:32 444

原创 译(自编码器) Hinton2006---Reducing the Dimensionality of Data with Neural Networks

Reducing the Dimensionality of Data with Neural Networks——使用神经网络降低数据维度G. E. Hinton and R. R. Salakhutdinov通过训练一个具有小的中间层的多层神经网络去重构高维输入向量,可以将高维数据转化为低维编码。在这种“自动编码器(autoencoder)”网络中,梯度下降可以用来微调(fine-tuning)权值,但是只有在初始权值接近一个好的解时才有效(work well)。我们描述了一种初始化权值的有效方法,

2022-03-22 10:21:42 2349

原创 线性模型——(1)线性回归

线性模型——(1)线性回归在接下来的一段时间我们将介绍五种线性模型,它们分别是:1.线性回归;2.逻辑回归(logistic回归);3.softmax回归;4.感知机(perceptron);5.支持向量机(SVM)。1.模型介绍在本文中,我们先只展开线性回归的部分,线性回归是机器学习中一个基础的模型,它的目的是对自变量和因变量间的关系做回归分析。当只有一个自变量时称为一元线性回归,公式如下:y=ax+b有多个自变量时称为多元回归,公式如下:线性回归模型训练的目的就是使得以下残差平方

2021-10-22 17:20:49 1567

原创 python绘制Sigmoid函数图

python绘制Sigmoid函数图python代码如下:import matplotlib.pyplot as pltimport numpy as npx = np.linspace(-6, 6) # linspace生成-6到6的等差数列,默认num=50个数y = 1.0 / (1 + np.exp(-x))plt.plot(x, y)plt.show()Sigmoid图:

2021-10-18 17:05:27 1399

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除