爬虫使用soup解析(并保存成固定格式文件)

爬取安徽省博物馆:

import requests
from bs4 import BeautifulSoup

url = 'http://www.ahm.cn/Service/Leaveword/zxzx#page='

def get_info(url, data=None):
    wd_data = requests.get(url)
    soup = BeautifulSoup(wd_data.text, 'lxml')

    questions = soup.select('#articles > ul > li > div.question.item')
    times = soup.select('#articles > ul > li > p > span:nth-child(2)')
    replys = soup.select('#articles > ul > li > div.answer.item')
    primary_class = '安徽省博物馆'
    print(questions)

    for question, time, reply in zip(questions, times, replys):
        data = {
            'question': question.get_text(),
            'time': time.get_text(),
            'reply': reply.get_text(),
            'primary': primary_class
        }
        #print(data)
        with open('安徽博物馆.txt', 'a', encoding='ut
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值