python太好用了

比如说保存数据到excel,只要执行一个命令pip install openpyxl 再加几行代码就搞定了

以下代码是爬取糯米的部分数据,用基本的正则匹配当作练手

#-*- coding:utf-8 -*-
import re
import requests
import json
import random
from time import sleep
from openpyxl import Workbook
wb = Workbook()
ws = wb.active

class JSONObject:
    def __init__(self, d):
        self.__dict__ = d
print("---------------------start----------------------")
# 
# with open('meishiall.txt', 'wt') as f:
for j in range(1,49):
    try:
        if j == 1:
            url = "https://nc.nuomi.com/326"
        else:
            url = "https://nc.nuomi.com/326-page"+str(j)+"?#j-sort-bar"
        print("-------------------url=" + url + "--------------------")
        # print("-------------------url="+url+"--------------------",file=f)
        ws.append([url])
        r = requests.get(url)

        html= r.content.decode("utf8", "ignore")
        # print(html)
        pic_url = re.findall('
<="" code="">

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值