python抓取网页信息保存为xml文件_Python抓取聚划算商品分析页面获取商品信息并以XML格式保存到本地...

本文实例为大家分享了Python抓取聚划算商品页面获取商品信息并保存的具体代码,供大家参考,具体内容如下

#!/user/bin/python

# -*- coding: gbk -*-

#Spider.py

import urllib2

import httplib

import StringIO

import gzip

import re

import chardet

import sys

import os

import datetime

from xml.dom.minidom import Document

from BeautifulSoup import BeautifulSoup

## 这段代码是用于解决控制台打印汉字报错的问题

reload(sys)

sys.setdefaultencoding("utf8")

#####################################################

## debug模式开关,开启后可以看到Http请求的头部信息以及debug日志

DEBUG = 1

NO_DEBUG = 0

httplib.HTTPConnection.debuglevel = DEBUG

## 是否显示爬取网页源代码开关

showSrcCode = False

## 压缩方式

ZIP_TYPE = "gzip"

fileName = "auctions"

location = "d://spiderData/"

## header

headerConfig = {"User-Agent":"taobao-yanyuan.qzs", "Accept-encoding":ZIP_TYPE}

#####################################################

#############class SpiderConfig #####################

class SpiderConfig:

"""

configuration for spider name and url

"""

def __init__(self, name, url):

self.name = name

self.url = url

#####################################################

##############class SpiderAuctionDomain##############

class SpiderAuctionDomain:

"""

Store information with auctions spidered by python

"""

title = ""

url = ""

img = ""

price = ""

def __ini

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值