python文本去重函数_Python做文本按行去重的实现方法

本文介绍了如何使用Python处理文本文件,通过建立字典实现按行去重。首先,读取文本文件,对每一行切割,将切割后的前半部分作为键存入字典,若键已存在则跳过,确保字典中每个键对应唯一的行,从而达到去重目的。此外,还提供了一个函数`quchong`,适用于小文件的去重操作。
摘要由CSDN通过智能技术生成

3a2c5c47719654b2eb3ed26ac95e70d8.png

文本:

每行在promotion后面包含一些数字,如果这些数字是相同的,则认为是相同的行,对于相同的行,只保留一行。

思路:

根据字典和字符串切割。

建立一个空字典。

读入文本,并对每行切割前半部分,在读入文本的过程中循环在这个字典中查找,如果没找到,则写入该行到字典。否则,则表示该行已经被写入过字典了(即出现重复的行了),不再写入字典,这就实现了对于重复的行只保留一行的目的。

文本如下:

/promotion/232 utm_source

/promotion/237 LandingPage/borrowExtend/? ;

/promotion/25113 LandingPage/mhd

/promotion/25113 LandingPage/mhd

/promotion/25199 com/LandingPage

/promotion/254 LandingPage/mhd/mhd4/? ;

/promotion/259 LandingPage/ydy/? ;

/promotion/25113 LandingPage/mhd

/promotion/25199 com/LandingPage

/promotion/25199 com/LandingPage

程序如下:

line_dict_uniq = dict()

with open('1.txt','r') as fd:

for line in fd:

key = line.split(' ')[0]

if key not in line_dict_uniq.values():

line_dict_uniq[key] = line

else:

continue

print line_dict_uniq

print len(line_dict_uniq)

# 这里是打印了不重复的行(重复的只打印一次),实际再把这个结果写入文件就可以了,

# 就不写这段写入文件的代码了

上面这个程序执行效率比较低,改成如下会提高一些:

line_dict_uniq = dict()

with open('1.txt','r') as fd:

for line in fd:

key = line.split(' ')[0]

if key not in line_dict_uniq.keys():

line_dict_uniq[key] = line

else:

continue

print line_dict_uniq

print len(line_dict_uniq)

继续补充一个函数

# -*- coding: utf-8 -*-

'''

只使用与较小的文件,比较大的文件运行时间长

'''

def quchong(infile,outfile):

infopen = open(infile,'r',encoding='utf-8')

outopen = open(outfile,'w',encoding='utf-8')

lines = infopen.readlines()

list_1 = []

for line in lines:

if line not in list_1:

list_1.append(line)

outopen.write(line)

infopen.close()

outopen.close()

quchong("源文件路径","目标文件路径")

以上所述是小编给大家介绍的Python做文本按行去重,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对网站的支持!

### 回答1: 可以使用Python中的set()函数来去除重复的文本。set()函数可以接受一个列表作为参数,并返回一个包含列表中所有不重复元素的集合。例如,假设有一个包含重复文本的列表text_list,可以使用以下代码将其转换为一个不包含重复文本的集合: ``` text_list = ['apple', 'banana', 'orange', 'apple', 'banana'] unique_text = set(text_list) print(unique_text) ``` 输出结果为: ``` {'orange', 'banana', 'apple'} ``` 这样就可以方便地去除文本中的重复项了。如果需要将去重后的文本保存到一个新文件中,可以使用以下代码: ``` with open('input.txt', 'r') as f: text = f.readlines() unique_text = set(text) with open('output.txt', 'w') as f: for line in unique_text: f.write(line) ``` 其中,input.txt为输入文件名,output.txt为输出文件名。这段代码会读取input.txt文件中的所有行,去除重复行,并将结果写入output.txt文件中。 ### 回答2: Python文本去重可以使用set数据结构进行操作。首先,将文本读取为一个字符串,然后使用split()函数进行分词,将文本拆分成一个列表。接下来,将列表转换为set集合,set集合会自动去除重复元素。最后,使用join()函数去重后的元素再次组合成一个字符串。 下面是一个示例代码: ```python text = "这是一个文本文本样例。这是一个示例文本。" # 将文本转换为列表 word_list = text.split() # 去除重复元素 unique_words = set(word_list) # 将去重后的元素转换为字符串 result = ' '.join(unique_words) print(result) ``` 以上代码输出结果为:"文本样例。这是一个示例文本。这是一个",其中,文本中的重复元素"文本"只保留了一个。 ### 回答3: Python文本去重指的是在文本中去除重复的内容,使得文本中的每个元素都是唯一的。 下面是使用Python进行文本去重的一种简单方法: 1.创建一个空集合set用于存储去重后的文本内容。 2.遍历文本中的每个元素,将元素添加到集合中。 3.遍历完成后,集合中将只包含文本中的唯一元素。 4.将集合转换为列表,以便对结果进行操作或输出。 以下是一个示例代码: ``` def text_deduplicate(text): unique_elements = set() for element in text: unique_elements.add(element) deduplicated_text = list(unique_elements) return deduplicated_text # 测试代码 text = ['apple', 'banana', 'apple', 'orange', 'banana'] deduplicated_text = text_deduplicate(text) print(deduplicated_text) ``` 结果输出为:['orange', 'banana', 'apple'] 以上是一种简单的方法,也可以使用其他方法实现文本去重,根据实际需要选择合适的方法
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值