numpy. 输入和输出

本文介绍了numpy库中用于输入和输出数据的函数,包括numpy二进制文件的保存和读取,如npy和npz格式,以及文本文件如TXT和CSV的处理。详细阐述了npy格式的特点,np.save和np.load的使用方法,以及如何处理文本文件中的缺失数据。还讨论了文本格式的选项,如浮点精度和科学记数法的控制。
摘要由CSDN通过智能技术生成

输入和输出

numpy 二进制文件

save()savez()load()函数以 numpy 专用的二进制类型(npy、npz)保存和读取数据,这三个函数会自动处理ndim、dtype、shape等信息,使用它们读写数组非常方便,但是save()输出的文件很难与其它语言编写的程序兼容。

npy格式:以二进制的方式存储文件,在二进制文件第一行以文本形式保存了数据的元信息(ndim,dtype,shape等),可以用二进制工具查看内容。

npz格式:以压缩打包的方式存储文件,可以用压缩软件解压。

  • numpy.save(file, arr, allow_pickle=True, fix_imports=True) Save an array to a binary file in NumPy .npy format.
  • numpy.load(file, mmap_mode=None, allow_pickle=False, fix_imports=True, encoding='ASCII') Load arrays or pickled objects from .npy, .npz or pickled files.

【例】

import numpy as np

outfile = r'.\test.npy'
np.random.seed(20200619)
x = np.random.uniform(0, 1, [3, 5])
np.save(outfile, x)
y = np.load(outfile)
print(y)
# [[0.01123594 0.66790705 0.50212171 0.7230908  0.61668256]
#  [0.00668332 0.1234096  0.96092409 0.67925305 0.38596837]
#  [0.72342998 0.26258324 0.24318845 0.98795012 0.77370715]]
  • numpy.savez(file, *args, **kwds) Save several arrays into a single file in uncompressed .npz format.

savez()第一个参数是文件名,其后的参数都是需要保存的数组,也可以使用关键字参数为数组起一个名字,非关键字参数传递的数组会自动起名为arr_0, arr_1, …

savez()输出的是一个压缩文件(扩展名为npz),其中每个文件都是一个save()保存的npy文件,文件名对应于数组名。load()自动识别npz文件,并且返回一个类似于字典的对象,可以通过数组名作为关键字获取数组的内容。

【例】将多个数组保存到一个文件,可以使用numpy.savez()函数。

import numpy as np

outfile = r'.\test.npz'
x = np.linspace(0, np.pi, 5)
y = np.sin(x)
z = np.cos(x)
np.savez(outfile, x, y, z_d=z)
data = np.load(outfile)
np.set_printoptions(suppress=True)
print(data.files)  
# ['z_d', 'arr_0', 'arr_1']

print(data['arr_0'])
# [0.         0.78539816 1.57079633 2.35619449 3.14159265]

print(data['arr_1'])
# [0.         0.70710678 1.         0.70710678 0.        ]

print(data['z_d'])
# [ 1.          0.70710678  0.         -0.70710678 -1.        ]

用解压软件打开 test.npz 文件,会发现其中有三个文件:arr_0.npy,arr_1.npy,z_d.npy,其中分别保存着数组x,y,z的内容。


文本文件

savetxt()loadtxt()genfromtxt()函数用来存储和读取文本文件(如TXT,CSV等)。genfromtxt()loadtxt()更加强大

以下是对代码的注释: ```python import numpy import scipy.special class NeuralNetwork(): def __init__(self,inputnodes,hiddennodes,outputnodes,learningrate): # 初始化神经网络的输入层、隐藏层、输出层的节点数以及学习率 self.inodes = inputnodes self.hnodes = hiddennodes self.onodes = outputnodes self.lr = learningrate # 初始化输入层到隐藏层和隐藏层到输出层的权重 # 对权重进行随机初始化,取值范围为均值为0,标准差为节点数的负平方根 self.wih = numpy.random.normal(0.0, pow(self.hnodes, -0.5), (self.hnodes, self.inodes)) self.who = numpy.random.normal(0.0, pow(self.onodes, -0.5), (self.onodes, self.hnodes)) # 定义激活函数为 sigmoid 函数 self.activation_function = lambda x: scipy.special.expit(x) def train(self,input_list,target_list): # 将输入列表和目标列表转换为二维数组 inputs = numpy.array(input_list, ndmin=2).T targets = numpy.array(target_list, ndmin=2).T # 计算隐藏层的输入输出 hidden_inputs = numpy.dot(self.wih, inputs) hidden_outputs = self.activation_function(hidden_inputs) # 计算输出层的输入输出 final_inputs = numpy.dot(self.who, hidden_outputs) final_outputs = self.activation_function(final_inputs) # 计算输出层误差和隐藏层误差 output_errors = targets - final_outputs hidden_errors = numpy.dot(self.who.T, output_errors) # 更新隐藏层到输出层和输入层到隐藏层的权重 self.who += self.lr * numpy.dot((output_errors * final_outputs * (1.0 - final_outputs)), numpy.transpose(hidden_outputs)) self.wih += self.lr * numpy.dot((hidden_errors * hidden_outputs * (1.0 - hidden_outputs)), numpy.transpose(inputs)) def query(self,input_list): # 将输入列表转换为二维数组 inputs = numpy.array(input_list, ndmin=2).T # 计算隐藏层的输入输出 hidden_inputs = numpy.dot(self.wih, inputs) hidden_outputs = self.activation_function(hidden_inputs) # 计算输出层的输入输出 final_inputs = numpy.dot(self.who, hidden_outputs) final_outputs = self.activation_function(final_inputs) # 返回最终输出 return final_outputs # 创建神经网络实例 input_nodes = 3 hidden_nodes = 3 output_nodes = 3 learning_rate = 0.3 n = NeuralNetwork(input_nodes,hidden_nodes,output_nodes,learning_rate) # 使用训练数据进行训练 training_data = [[0.1, 0.2, 0.3], [0.4, 0.5, 0.6], [0.7, 0.8, 0.9]] for data in training_data: n.train(data, data) # 使用测试数据进行测试 test_data = [0.2, 0.5, 0.8] print(n.query(test_data)) ``` 这个神经网络实现了一个简单的自编码器,训练数据和测试数据都是由一些简单的数字组成。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值