机器学习笔记——(HW01)

读取文件操作

常见的读写操作:

with open(r'filename.txt') as f:
   data_user=pd.read_csv(f)  #文件的读操作

with open('data.txt', 'w') as f:
   f.write('hello world')  #文件的写操作

相关参数:

r:	以只读方式打开文件。文件的指针将会放在文件的开头。这是**默认模式**。
rb: 以二进制格式打开一个文件用于只读。文件指针将会放在文件的开头。这是默认模式。
r+: 打开一个文件用于读写。文件指针将会放在文件的开头。
rb+:以二进制格式打开一个文件用于读写。文件指针将会放在文件的开头。
w:	打开一个文件只用于写入。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。
wb:	以二进制格式打开一个文件只用于写入。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。
w+:	打开一个文件用于读写。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。
wb+:以二进制格式打开一个文件用于读写。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。
a:	打开一个文件用于追加。如果该文件已存在,文件指针将会放在文件的结尾。也就是说,新的内容将会被写入到已有内容之后。如果该文件不存在,创建新文件进行写入。
ab:	以二进制格式打开一个文件用于追加。如果该文件已存在,文件指针将会放在文件的结尾。也就是说,新的内容将会被写入到已有内容之后。如果该文件不存在,创建新文件进行写入。
a+:	打开一个文件用于读写。如果该文件已存在,文件指针将会放在文件的结尾。文件打开时会是追加模式。如果该文件不存在,创建新文件用于读写。
ab+:以二进制格式打开一个文件用于追加。如果该文件已存在,文件指针将会放在文件的结尾。如果该文件不存在,创建新文件用于读写。
————————————————
版权声明:本文为CSDN博主「ckSpark」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/MsSpark/article/details/86745391

file对象的属性:

file.read([size])   将文件数据作为字符串返回,可选参数size控制读取的字节数
file.readlines([size])   返回文件中行内容的列表,size参数可选
file.write(str)   将字符串写入文件
file.writelines(strings)   将字符串序列写入文件
file.close()   关闭文件
file.closed	表示文件已经被关闭,否则为False

file.mode	Access文件打开时使用的访问模式
file.encoding	文件所使用的编码
file.name	文件名
file.newlines	未读取到行分隔符时为None,只有一种行分隔符时为一个字符串,当文件有多种类型的行结束符时,则为一个包含所有当前所遇到的行结束的列表
file.softspace	为0表示在输出一数据后,要加上一个空格符,1表示不加。这个属性一般程序员用不着,由程序内部使用
————————————————
版权声明:本文为CSDN博主「ckSpark」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/MsSpark/article/details/86745391

List list() 函数

list() 方法用于将元组转换为列表。
注:元组与列表是非常类似的,区别在于元组的元素值不能修改,元组是放在括号中,列表是放于方括号中。

#要注意encoding编码,编码方式可以通过使用记事本打开csv文件,然后在界面右下角查看
path='HW1\\test\\test.csv'
with open(path, 'r',encoding='utf-8') as fp:
    data = list(csv.reader(fp))
print(data)

返回的结果:

[['id', 'A', 'B', 'C', 'D'], 
['1', '1', '0', '1', '0'], 
['2', '0', '1', '0', '0'], 
['3', '0', '0', '1', '1']]

修改代码成:

path='HW1\\test\\test.csv'
with open(path, 'r',encoding='utf-8') as fp:
    data = list(csv.reader(fp))
    #添加该行代码
    #截取从第二行、第二列开始的所有数据
    #将data转换成float类型
    data = np.array(data[1:])[:, 1:].astype(float)
print(data)

返回结果:

[[1. 0. 1. 0.]
 [0. 1. 0. 0.]
 [0. 0. 1. 1.]]

对于截取某一列的数据:

data = [[1,2,6],
        [3,4,7]]
data = np.array(data)
print(data[:,0])
print(data[:,1])
print(data[:,2])
print(data[1,:])
print(data[:, 1:])
————————————————
版权声明:本文为CSDN博主「Sophia要一直努力」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_41555408/article/details/104677806

结果如下

[1 3]
[2 4]
[6 7]
[3 4 7]
[[2 6]
 [4 7]]

del

del 在 python 中的作用是删除变量,接触对变量的引用

s[:-1]

等价于 s[0:len(s)],除了最后一个元素的切片

s='abcdefg'
print(s[0])
print(s[-2])
print(s[1:4])
print(s[1:4:2])
print(s[-1:1:-1])
print(len(s))
#输出
a
f
bcd
bd
gfedc
7

基本框架

DataSet

关于继承module模型

构造简单模型

class MLP(nn.Module):
# 声明模型参数层
    def __init__(self, **kwargs):
# 初始化
# **kwargs 表示函数接收可变长度的关键字参数字典
# super() 用来调用父类
        super(MLP,self).__init__(**kwargs)
        self.hidden = nn.Linear(784,256) # 声明隐藏层
        self.act = nn.ReLU()  # 添加激活函数
        self.output = nn.Linear(256,10)  # 添加输出层
# 定义模型向前计算
    def forward(self,x):
        a = self.act(self.hidden(x))
        return self.output(a)
X = torch.rand(2,784)
#随机产生两组样本
net = MLP() # 调用父类
print(net) # 查看MLP结构
# 网络模型为:隐藏层Linear(in_features=784, out_features=256, bias=True)
# 激活函数:ReLU()
# 输出层为:Linear(in_features=256, out_features=10, bias=True)
net(X) # 输出结果,输出2行10列的tensor

————————————————
版权声明:本文为CSDN博主「孔夫子的高压锅」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/gaokaojiayou/article/details/105779156

构造复杂模型

class FancyMLP(nn.Module):
    def __init__(self):
        super(FancyMLP, self).__init__()

        self.rand_weight = torch.rand((20, 20), requires_grad=False) #常数参数
#         权重参数不迭代
        self.linear = nn.Linear(20, 20)

    def forward(self, x):
        x = self.linear(x)
        # 使用创建的常数参数
        x = nn.functional.relu(torch.mm(x, self.rand_weight.data) + 1)
        # 复用全连接层。等价于两个全连接层共享参数
        x = self.linear(x)
        # 控制流,这里我们需要调用item函数来返回标量进行比较
        while x.norm().item() > 1:
            x /= 2
        if x.norm().item() < 0.8:
            x *= 10
        return x.sum()

X = torch.rand(2, 20)
net = FancyMLP()
print(net) # 只有一层结构
net(X)
————————————————
版权声明:本文为CSDN博主「孔夫子的高压锅」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/gaokaojiayou/article/details/105779156
class NestMLP(nn.Module):
    def __init__(self):
        super(NestMLP, self).__init__()
        self.net = nn.Sequential(nn.Linear(40, 30), nn.ReLU())

    def forward(self, x):
        return self.net(x)

net = nn.Sequential(NestMLP(), nn.Linear(30, 20), FancyMLP())
#嵌套调用FancyMLP和Sequential
X = torch.rand(2, 40)
print(net) # 多层复合网络模型
net(X)  
————————————————
版权声明:本文为CSDN博主「孔夫子的高压锅」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/gaokaojiayou/article/details/105779156

浅析PyTorch中nn.Module的使用
更新时间:2019年08月18日 10:52:30 作者:Steven·简谈
这篇文章主要介绍了浅析PyTorch中nn.Module的使用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧

torch.nn.Modules 相当于是对网络某种层的封装,包括网络结构以及网络参数和一些操作

torch.nn.Module 是所有神经网络单元的基类

查看源码
初始化部分:

def __init__(self):
  self._backend = thnn_backend
  self._parameters = OrderedDict()
  self._buffers = OrderedDict()
  self._backward_hooks = OrderedDict()
  self._forward_hooks = OrderedDict()
  self._forward_pre_hooks = OrderedDict()
  self._state_dict_hooks = OrderedDict()
  self._load_state_dict_pre_hooks = OrderedDict()
  self._modules = OrderedDict()
  self.training = True

属性解释:

_parameters:字典,保存用户直接设置的 Parameter
_modules:子 module,即子类构造函数中的内容
_buffers:缓存
_backward_hooks与_forward_hooks:钩子技术,用来提取中间变量
training:判断值来决定前向传播策略

方法定义:

def forward(self, *input):
 raise NotImplementedError

没有实际内容,用于被子类的 forward() 方法覆盖

且 forward 方法在 call 方法中被调用:

def __call__(self, *input, **kwargs):
 for hook in self._forward_pre_hooks.values():
    hook(self, input)
  if torch._C._get_tracing_state():
    result = self._slow_forward(*input, **kwargs)
  else:
    result = self.forward(*input, **kwargs)
  ...
  ...

实例展示
简单搭建:

import torch.nn as nn
import torch.nn.functional as F
 
class Net(nn.Module):
  def __init__(self, n_feature, n_hidden, n_output):
    super(Net, self).__init__()
    self.hidden = nn.Linear(n_feature, n_hidden)
    self.out = nn.Linear(n_hidden, n_output)
 
  def forward(self, x):
    x = F.relu(self.hidden(x))
    x = self.out(x)
    return x

Net 类继承了 torch 的 Module 和 init 功能

hidden 是隐藏层线性输出

out 是输出层线性输出

打印出网络的结构:

net = Net(n_feature=10, n_hidden=30, n_output=15)
print(net)
Net(
 (hidden): Linear(in_features=10, out_features=30, bias=True)
 (out): Linear(in_features=30, out_features=15, bias=True)
)

在函数的名称后加 “" 的函数一般是就地改变值,而不加 "” 的一般不是就地改变值。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值