python爬取贴吧数据_Python3实现爬取指定百度贴吧页面并保存页面数据生成本地文档的方法...

分享给大家供大家参考,具体如下:Python3实现爬取指定百度贴吧页面并保存页面数据生成本地文档的方法。分享给大家供大家参考,具体如下:

首先我们创建一个python文件, tieba.py,我们要完成的是,输入指定百度贴吧名字与指定页面范围之后爬取页面html代码,我们首先观察贴吧url的规律,比如:

百度贴吧LOL吧第一页:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0

第二页: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=50

第三页: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=100

发现规律了吧,贴吧中每个页面不同之处,就是url最后的pn的值,其余的都是一样的,我们可以抓住这个规律(kw表示贴吧名,采用url编码)。

清楚了url规则,我们便可以利用urllib进行批量式数据爬取,代码如下:

# -*- coding:utf-8 -*-

from urllib import request as urllib2

from urllib import parse

import random

def loadPage(url, page):

'''

根据url获取服务器响应文件

url:需要爬取的url

'''

print('---------正在下载页面%d-------' % page)

ua_list = [

"Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv2.0.1) Gecko/20100101 Firefox/4.0.1",

"Mozilla/5.0 (Windows NT 6.1; rv2.0.1) Gecko/20100101 Firefox/4.0.1",

"Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11",

"Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11",

"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"

]

header = random.choice(ua_list)

request = urllib2.Request(url)

request.add_header('User-Agent', header)

response = urllib2.urlopen(request)

html = response.read()

return html

def write(html, page):

'''

将html文件写入本地

:param html: 服务器响应文件内容

:return:

'''

data = html

file_name = 'tieba{}.txt'.format(page)

print('---------正在保存文件%s-------'%file_name)

# 运用with open as语句使代码更加简洁 避免写异常处理和文件关闭语句

with open(file_name,'w',encoding='utf-8') as file:

file.write(data.decode())

print('---------success!---------')

def tiebaSpider(url, kw, begin, end):

'''

爬取贴吧信息

'''

words = {

'kw':kw

}

kw = parse.urlencode(words)

url = url % (kw)

for page in range(begin, end + 1):

pn = ((page-1)*50)

ful_url = url + str(pn)

html = loadPage(url, page)

write(html, page)

if __name__ == '__main__':

kw = input('请输入爬取贴吧名:')

beginPage = int(input('请输入起始页:'))

endPage = int(input('请输入结束页:'))

url = r'http://tieba.baidu.com/f?%s&pn='

tiebaSpider(url, kw, beginPage, endPage)

控制台结果如下:

请输入爬取贴吧名:河南

请输入起始页:1

请输入结束页:3

---------正在下载页面1-------

---------正在保存文件tieba1.txt-------

---------success!---------

---------正在下载页面2-------

---------正在保存文件tieba2.txt-------

---------success!---------

---------正在下载页面3-------

---------正在保存文件tieba3.txt-------

---------success!---------

Process finished with exit code 0

希望本文所述对大家Python程序设计有所帮助。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是一个简单的Python爬取数据并解析数据的教程: 1. 确定目标网站和要爬取的信息 首先,需要确定要爬取的网站和要提取的信息。可以使用Python的requests库向网站发送HTTP请求获取HTML源代码,并使用BeautifulSoup库解析HTML文档获取目标数据。 例如,我们要爬取CSDN博客的文章标题和链接,可以先打开CSDN博客主,右键查看网源代码,找到文章标题和链接所在的HTML标签。 2. 发送HTTP请求获取HTML源代码 接下来,使用Python的requests库向网站发送HTTP请求,获取HTML源代码。 ``` import requests url = 'https://blog.csdn.net/' response = requests.get(url) html = response.text ``` 3. 解析HTML文档获取目标数据 使用BeautifulSoup库解析HTML文档,获取目标数据。 ``` from bs4 import BeautifulSoup soup = BeautifulSoup(html, 'html.parser') titles = soup.find_all('div', class_='title') for title in titles: link = title.find('a').get('href') title_text = title.find('a').text.strip() print(title_text, link) ``` 上述代码中,通过`find_all`方法找到所有class属性为"title"的div标签,然后在每个div标签中找到第一个a标签,获取链接和标题文本。 4. 完整代码 ``` import requests from bs4 import BeautifulSoup url = 'https://blog.csdn.net/' response = requests.get(url) html = response.text soup = BeautifulSoup(html, 'html.parser') titles = soup.find_all('div', class_='title') for title in titles: link = title.find('a').get('href') title_text = title.find('a').text.strip() print(title_text, link) ``` 以上就是一个简单的Python爬取数据并解析数据的教程。需要注意的是,在爬取网站数据时要遵守网站的虫协议,避免被网站封禁IP。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值