python爬虫获取网站数据

要爬取的网站不需要登陆,没有反爬机制,操作很简单
首先安装需要的程序包

 	pip install requests
    pip install beautifulsoup4
    pip install xlwt

具体的实现类GetInfo.py

#信息实体类
class product_info(object):
        serios = ''  # 存放商品系列
        productActualPrice = ''  # 存放商品成交价
        productOldPrice = ''  # 存放商品面价
        detailString = ''  # 存放商品详情
        productCategory = ''  # 产品类目
        productName = ''  # 产品名称
        productTypeNum = ''  # 产品型号
        productFactory = ''  # 产品厂家

'''
实际下载方法
'''
class downloader(object):

    def __init__(self):
        self.server = ''
        self.target = ''
        self.pageUrls = []  # 存放各个页面链接
        self.productUrls = []  # 存放各个商品链接
        self.productInfo = []  # 商品信息列表,用以保存至Excel

    '''
    初始化serverUrl及targetUrl
    '''
    def init(self,serverUrl,targetUrl):
        self.server = serverUrl
        self.target = targetUrl
    '''
    获取全部的分页页面
    '''
    def get_page_urls(self):
        req = requests.get(url=self.target)
        s
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值