【Python】从本地文本文件中提取有效信息 存储到excel表中

操作:通过正则表达式,匹配到需要的字段,分别写入excel中

# -*- coding: utf-8 -*
import requests
import re
import pymysql
import xlwt
import xlrd
from xlutils.copy import copy

#打开本地文件
with open('G:\PythonWorkSpace\XiechengHotel\session.log', 'r') as f:

    data = f.read()
    print data

    patternStart = re.compile('FUNC]starttime:(.*?),reqID:(.*?)=', re.S)

    #去掉所有空格
    datarep = data.replace(' ', '').replace('\r', '').replace('\n', '').replace('\t', '')
    print datarep

    #匹配
    resultStart = re.findall(patternStart, datarep)
  
    i = 0
    filename = 'G:\PythonWorkSpace\XiechengHotel\T3.xls'  # 文件名
    rb = xlrd.open_workbook(filename)
    wb = copy(rb)  # 复制页面
    ws = wb.get_sheet(0)  # 取第一个sheet

    for item in resultStart:
        i = i+1
        print "---------------Start item:"+ str(i)+ "--------------"
        print item[0], item[1]
        ws.write(i,2, item[0])  #写入i行3列
        ws.write(i, 0, item[1]) #写入i行1列

        wb.save(filename)  # 保存文件


print(f.closed)

 

  • 5
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 你好! 这里是一个示例代码,帮助你提取 Excel 网址的标题和文本,并存储到 txt 文本: ``` import requests from bs4 import BeautifulSoup # 读取 Excel 的网址 urls = ['http://www.example.com/page1', 'http://www.example.com/page2'] for url in urls: # 使用 requests 库发起请求 response = requests.get(url) # 使用 BeautifulSoup 解析 HTML 网页 soup = BeautifulSoup(response.text, 'html.parser') # 提取标题 title = soup.find('title').text # 提取文本 text = soup.get_text() # 将标题和文本写入 txt 文件 with open('output.txt', 'w') as f: f.write(title + '\n\n') f.write(text) ``` 希望这能帮到你! 如果你有其他问题,请随时追问。 ### 回答2: ```python import requests import openpyxl # 读取Excel的网址信息 workbook = openpyxl.load_workbook('网址信息.xlsx') sheet = workbook.active url_column = sheet['A'] # 遍历每一个网址 for cell in url_column[1:]: url = cell.value try: # 发送HTTP请求获取网页内容 response = requests.get(url) response.raise_for_status() # 提取网页标题 title = "" start = response.text.find("<title>") end = response.text.find("</title>") if start != -1 and end != -1: title = response.text[start + len("<title>"):end] # 提取网页文本 text = "" start = response.text.find("<body>") end = response.text.find("</body>") if start != -1 and end != -1: text = response.text[start + len("<body>"):end] # 保存标题和文本到txt文本文件 with open('网页内容.txt', 'a', encoding='utf-8') as file: file.write(f"网页标题:{title}\n") file.write(f"网页文本:{text}\n\n") except requests.exceptions.RequestException as e: print(f"发生异常:{e}") print("提取完成!") ``` 以上是一个简单的Python代码示例,使用`requests`库发送HTTP请求获取网页内容,再使用字符串操作提取网页标题和文本,并将结果保存到`txt`文本文件。注意需要安装`openpyxl`和`requests`库。 ### 回答3: 可以使用Python的requests和BeautifulSoup库来实现根据Excel的网址信息提取对应网页的标题和文本,并将其存储到txt文本。 首先,需要安装requests和beautifulsoup4库。可以使用以下命令安装: ``` pip install requests pip install beautifulsoup4 ``` 然后,可以使用以下Python代码来实现: ```python import requests import csv from bs4 import BeautifulSoup # 读取Excel数据,假设网址信息保存在url_data.csv with open('url_data.csv', 'r') as file: reader = csv.reader(file) urls = list(reader) # 遍历网址信息 for url in urls: url = url[0] # 假设网址保存在每行的第一列 # 发送HTTP请求获取网页内容 response = requests.get(url) html = response.text # 使用BeautifulSoup解析网页内容,提取标题和文本 soup = BeautifulSoup(html, 'html.parser') title = soup.find('title').text # 提取标题 text = soup.get_text() # 提取网页文本 # 将标题和文本保存到txt文本,假设每个网址的标题和文本分别保存在对应的title.txt和text.txt with open('title.txt', 'a') as file: file.write(title + '\n') with open('text.txt', 'a') as file: file.write(text + '\n\n') ``` 需要注意的是,以上代码假设网址信息保存在一个名为url_data.csv的csv文件,每个网址占据一行。根据需要,可以修改对应的文件名和保存的格式。 其,导入的csv库用于读取Excel数据,需要先将Excel另存为csv格式;requests库用于发送HTTP请求获取网页内容;BeautifulSoup库用于解析网页内容。 这样,就可以根据Excel的网址信息提取对应网页的标题和文本,并将其存储到txt文本了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值