关于python的段子_Python-好段子爬取

import urllib.request

import urllib.parse

from lxml import etree #导入xpath#

import time

import json

import os

item_list=[]

def handle_request(url,page):

headers={

"User-Agnet":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36"

}

#将url和page进行拼接#

url=url%page

#如果下面的用{},可以写成url=url.format(page)

print(url)

request=urllib.request.Request(url=url,headers=headers)

return request

def parse_content(content):

#生成对象, 构造xpath的解析对象#

tree=etree.HTML(content)

#抓取内容#

div_list=tree.xpath('//div/a/p')

#遍历div列表#

print(div_list)

print(len(div_list))

for odiv in div_list:

#获取标题#

title=odiv.xpath('//div[@class="head"]/h2/text()')[0]

print(title)

text_lt=odiv.xpath('.//div[@class="content"]/p/text()')#返回的是一个列表#

text='\n'.join(text_lt)

print(text)

item={

'标题':title,

'内容':text,

}

#将内容添加到列表中#

item_list.append(item)

def main():

start_page=int(input("请输入起始页码:"))

end_page=int(input("请输入结束页码:"))

url='http://www.haoduanzi.com/category/?1-%s.html'

#这样写也可以:url='http://www.haoduanzi.com/category/?1-{.}html'

for page in range(start_page,end_page+1):

request=handle_request(url,page)

content=urllib.request.urlopen(request).read().decode()

#解析内容#

parse_content(content)

time.sleep(2)

#写入到文件中#

string=json.dumps(item_list,ensure_ascii=False)

with open('/Users/marine/Desktop/python/duanzi.txt','w', encoding='utf8') as fp:

fp.write(string)

if name=='main':

main()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值