python中文件操作

1.文件的打开或者创建
  f = open('数据.txt', 'w', encoding='utf-8') # 只读方式打开文件
  f. write('内容')
  f. read(读的字符个数)

2.文件的信息
①查找操作的文件名
print(f. name)
②访问权限
print(f. mode)
③编码格式
print(f. encoding)  # cp936  -- jbk编码格式的存储位置:第936页
④是否可读
print(f. readable() )
⑤是否可写
print(f. writable() )
⑥是否关闭
print( f.closed)

3.文件的指针
  seek(偏移量,whence)  seek(5,0)
  # 偏移量:距离whence值的字符数
  # whence:位置:0:文件开头 1:当前位置 2:文件结尾
  f = open('数据.txt', 'r', encoding='utf-8')
  print(f.tell())
  f.seek(5, 0)
  f1 = f.read(3)  #  代表读几个
  f.close()
  print(f1)

4.文件写入后清空缓存,节约内存
# 清空缓冲区(释放缓冲区的占用,把这个区域分配给其他数据),写入数据到硬盘
f. flush()

5.文件与目录操作
import os
①文件操作
重命名  rename(目标文件名字,新的文件名)
os.rename('2.txt','2new.txt')
os.rename('aaa','bbb')
②删除文件 remove()
os.remove('2new.txt')
③目录操作
路径:存储位置 。相对路径(以当前位置出发)  和  绝对路径(以盘符出发的路径形式/根目录)
     Ⅰ. getcwd() 某个文件的存储路径
aa = os.getcwd()
print(aa)
     Ⅱ. listdir()  返回一个列表,包含这个路径下的所有文件
list1 = os.listdir(aa)
print(list1)
     Ⅲ.os. mkdir('aaa')  #创建文件夹
aaa/bbb
      Ⅳ.os. chdir(路径)  #改变默认目录到指定路径,假如当前路径下有文件1,2,3,os.chdir(1)就将路径制定到1文件
夹下;os.chdir(' ./')代表当前文件所在路径;os.chdir(' ../')代表当前文件上层所在路径;os.chdir( '/')代表当前文件根目录
file_path = os.getcwd()
print(file_path)
os.mkdir('bbb')
print(os.getcwd())
    Ⅴ.目录树
os. makedirs('111/222/333/444')  # 生成目录树
os. rmdir('aaa/bbb')  # 删除文件夹
os.rmdir('111')  # 目录不为空则不能删除
os.removedirs('111')  # 错误,本能删除目录树
import shutil
shutil.rmtree('111')  # 删除目录树
 
6.批量修改文件名
# 文件批量改名
import os
file = os.getcwd()
print(file)
file_list = os.listdir()
print(file_list)
for file in file_list:  # 添加修改内容
    new_name = '副本' + file
    os.rename(file, new_name)


for file in file_list:  # 改回修改前的内容
    new_name = file[2:]
    os.rename(file, new_name)
7.文件拷贝
# 文件拷贝
import os
file_list = os.listdir('./')
print(file_list)
name = input('请输入要备份的文件名字:')
if name in file_list:
    index = name.rfind('.')   # 从右检索文件名,记录文件名最后一个点的下标
    copy_name = name[:index] + '-附件' + name[index:]
    copy = open(copy_name, 'w', encoding='utf-8')  # 用于备份新文件
    file = open(name, 'r', encoding='utf-8')  # 用于读源文件
    while True:
        data = file.read(1024 * 1024)   # 防止文件过大,慢慢读
        if len(data) == 0:  # 读不到,说明没有数据了,跳出循环
            break
        else:
            copy.write(data)  # 否则写入备份文件
    copy.close()
    file.close()
else:
    print('文件不存在,重新输入!')

注意:如果是视频,音频等二进制文件,读写方式改为:wb,rb
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值