简易爬虫demo request+bs4分页爬取域名并写入文件

最近需要一个域名白名单数据,但是没有找到合适的,就自己动手了。
中文网站排名.上有最新数据,所以从这里入手。
分析网页结构,URL在中,可以直接用class定位。分页可以直接从末尾的html文件中找到规律,如第十九页的URL末尾就是index_19.html。
写入文件 f=open(“domain.txt”,“a”)如果不是"a"是"w",前一页的结果就会覆盖后一页。

from bs4 import BeautifulSoup
import requests
import sys

reload(sys)
sys.setdefaultencoding('utf8')


for x in range(1,1921):
    url="https://top.chinaz.com/all/index_"+str(x)+".html"
    response = requests.get(url)
    print x
    response.encoding = "utf-8"
    # print(response.text)
    soup = BeautifulSoup(response.text,'html.parser')
    arr = soup.find_all("span",class_="col-gray")
    f=open("domain.txt","a")
    for i in range(0,len(arr)):
        #print arr[i].text
        f.write(arr[i].text+'\n')
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值