一个python爬虫的实例

16 篇文章 0 订阅
1 篇文章 0 订阅
import urllib
import re,xlwt
from bs4 import BeautifulSoup
import demjson
 
#爬虫函数
def gydzf():
    workbook=xlwt.Workbook()
    num=0
    worksheet=workbook.add_sheet("爬虫数据")
    for k in range(1,135):
        url="http://stockdata.stock.hexun.com/zrbg/data/zrbList.aspx?date=2011-12-31&count=20&pname=20&titType=null&page="+str(k)+"&callback=hxbase_json11621778963605"
        user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"
        headers={"User-Agent":user_agent}
        request=urllib.request.Request(url,headers=headers)
        response=urllib.request.urlopen(request)
        contents = response.read()
        soup = BeautifulSoup(contents, "html.parser")
        t = str(soup)[13:-1] 
        data = demjson.decode(t)
        ll=[]
        ll=data["list"]
        for i in ll:
            xuhao=int(i["Number"])
            gupiao=i["industry"]
            defen=float(i['industryrate'])
            dengji=i['Pricelimit']
            gudong=float(i['stockNumber'])
            yuangong=float(i['lootingchips'])
            gongying=float(i['Scramble'])
            huanjing=float(i['rscramble'])
            shehui=float(i['Strongstock'])
            valuelist=[]
            valuelist=[xuhao,gupiao,defen,dengji,gudong,yuangong,gongying,huanjing,shehui]
            for j in range(len(valuelist)):
                worksheet.write(num,j,valuelist[j])
            num+=1
            print(num)
    workbook.save("getValue.xls")

 
#主函数
if __name__ == '__main__':
    gydzf()


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值