python3菜鸟集合_菜鸟学IT之python3关于列表,元组,字典,集合浅认识!

一.列表,元组,字典,集合分别如何增删改查及遍历。

列表

# 列表的增加

ls=['Hello','Word','JS','OK','Good']

print("原始数据:",ls)

ls.append(12) # 在数组列表后面增加字符串“12”

print("增加后的数组为:",ls)

# 列表的删除

del ls[1] # 删除数组的第二个元素,即下标为1的字符串

# ls.pop() # 删除列表最后一个元素

print("删除数组第二个元素后数组为:",ls)

# 列表的修改

ls[1] = "修改"# 删除数组的第二个元素,即下标为1的字符串

print("修改数组第二个元素后数组为:",ls)

# 列表的查询

ls.index('OK') # 查找“OK”字符串

print("打印字符串“OK”的下标:",ls.index('OK'))

# 遍历列表

print("遍历列表:")fori in ls:

print(i)

结果:

元组

1 # 元组2 YZ = ('元','组','的','元','素','不','修','改')3 YZ1 = ('的','!')4 YZ2 = YZ +YZ15 del YZ # 删除元组6 print("元组的遍历:")7 fori in YZ2:8 print("\t\t",i)

结果:

字典

1 # 字典2 D = {'这':1,'是':2,'字':3,'典':4,'!':5}3 D['这']=11# 修改键“这”的值4 del D['是'] # 删除键“是”5 a = D['这'] # 查看键a的值6 print("字典\n查看“这”的下标:",a)7 # D.clear() # 删除字典中的所有条目8 # 遍历输出列表9 str(D) # 打印字典10 forkey in D:11 print(key)

结果:

集合

# 集合

aa= {1, 2, 3}

aa.add(4) # 增加

print(aa)

aa.remove(2) # 删除

print(aa)

# 遍历打印fori in aa:

print("\t\t",i)

结果:

二、总结列表,元组,字典,集合的联系与区别。参考以下几个方面:

括号

有序无序

可变不可变

重复不可重复

存储与查找方式

列表

元组

字典

集合

名称

list

tuple

dict

set

初始化

[‘0’,’0’,’1’]

(‘0’,’0’,’1’)

{‘0’:1,’0’:2,’1’:3}

{1,2}或set([2,3])

是否有序

有序

有序

无序,自动正序

无序

可否重复

读写性

读写

只读

读写

读写

存储方式

键值对(键不可重复)

键(不可重复)

添加

append

只读

add

d[‘key’]=’value’

三、词频统计

1.下载一长篇小说,存成utf-8编码的文本文件 file

2.通过文件读取字符串 str

3.对文本进行预处理

4.分解提取单词 list

5.单词计数字典 set , dict

6.按词频排序 list.sort(key=lambda),turple

7.排除语法型词汇,代词、冠词、连词等无语义词

自定义停用词表

或用stops.txt

8.输出TOP(20)

9.可视化:词云

排序好的单词列表word保存成csv文件

importpandas as pd

# 打开小说

f= open(r'..\Lin\file_text\Sophies World.txt', 'r', encoding='utf8')

book=f.read()

f.close()

book_symbol= ['\n', '\t', '?', '?', '!', "!"," '", "'", ' "', '"', '""', ',', ',', '.', '。','“','”',',']

# 删除标点符号fori in book_symbol:

book= book.replace(i, '')

# 把所有的小写 以空格分隔开

book=book.lower().split()

# 打开停用词

f= open(r'..\Lin\file_text\stops.txt', 'r', encoding='utf8')

stops=f.read()

f.close()

# 删除多余符号

stop_symbol= [" '", "'", ' "', '"', '\n']fori in stop_symbol:

stops= stops.replace(i, '')

# 以逗号分隔

stops= stops.split(',')

word_dict={} # 创建词典

# 去掉停用词

word_set= set(book) -set(stops)

# 遍历计算词频fori in word_set:

word_dict[i]=book.count(i)

word_count=list(word_dict.items())

word_count.sort(key= lambda x:x[1], reverse =True)

pd.DataFrame(data=word_count[0:20]).to_csv('Sophies World.csv', encoding='utf-8')

结果:

深度习是机器习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行习和模式识别。深度习模型能够习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医图像分析等应用至关重要。以下是深度习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值