定时获取微博热搜爬虫连接MySQL(项目)

前言

这个项目的第三篇博客,增加了定时爬取和日志写入,解决了一些稳定性的问题。

代码设计

# -*- encoding: utf-8 -*-
# ---------------------------------------------
# 微博热搜
# ---------------------------------------------
import time
import re
import json
import sys
import copy
import pymysql
import requests#引入requests库用于下载网页
from bs4 import BeautifulSoup#BeautifulSoup用于解析网页

localtime = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime())#获取时间
try:
    data=requests.get("https://s.weibo.com/top/summary?Refer=top_hot&topnav=1&wvr=6").text#请求网站
except:
    print(localtime+'\t'+"爬取失败!")
soup=BeautifulSoup(data,'html.parser')#使用BeautifulSoup工具
a=[]#创建一个空列表
index=[]
try:
    db = pymysql.connect("xxx.xxx.xxx.xxx", "xxx", "xxx", "xxx", use_unicode=1,charset='utf8' )
    cursor = db.cursor()
except:
    print(localtime+'\t'+"打开数据库失败!")
try:
    for k in soup.find_all('a',attrs={'href':re.compile('^/weibo?'),'target' : '_blank'}): #把热度标题添加进空列表
        sql = """INSERT INTO hot_date(NAME, URL, TIME) VALUES ("%s",'%s','%s')""" % (str(k.get_text().strip()),"https://s.weibo.com"+k.get('href'),localtime)
        try:
            cursor.execute(sql)
            db.commit()
        except:
            flag=1
    db.close()
    print(localtime+'\t'+"存入成功!")
except:
    print(localtime+'\t'+"存入失败!")

说明

运行在linux上,用Crontab设置定时任务。教程
在这里插入图片描述
通过输出重定向写入日志文件
在这里插入图片描述

问题解决

1.运行错误

遇到了requests不能用的问题,在安装了requests库的情况下Linux无法运行
解决方法:增加try异常机制

2.Crontab运行错误

设置时使用绝对路径

后记

接下来就是记录结束时间和持续时间

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值