用python写个小爬虫

本文介绍了一个使用Python 3.6.1和BeautifulSoup 4.5.3编写的爬虫程序,该程序从古诗文网抓取古诗词数据,并将其存储到MySQL数据库中。通过循环请求网页并解析HTML来获取每首诗的标题和内容。
摘要由CSDN通过智能技术生成

一时兴起,学着写了个python爬虫,记录一下。

我使用python版本是v3.6.1,主要用来Beautiful Soup库,版本是v4.5.3。爬的是古诗文网(如果古诗文网的小伙伴介意,在此表示抱歉)

代码如下:

 

#!/usr/bin/python

import requests
import pymysql
import time
from bs4 import BeautifulSoup

def insertDb(db, title, str):

    # 使用 cursor() 方法创建一个游标对象 cursor
    cursor = db.cursor()

    create_at = time.strftime("%Y%m%d%H%M%S", time.localtime())

    sql = "INSERT INTO POETRY(TITLE,CONTENT, CREATE_AT, SOURCE)\
        VALUES ('%s', '%s', '%s', '%d')" % (title ,str, create_at, 1)

    cursor.execute(sql)

# 打开数据库连接
db = pymysql.connect(host = "localhost", user = "root", passwd = "", db = "test", charset = "utf8")

n = 1
while(n < 1000):
    web_url = "http://so.gushiwen.org/view_%s.aspx" % (n)
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36'}

    r = requests.get(web_url, headers=headers)
    title = BeautifulSoup(r.text, 'lxml').find('h1')
    content = BeautifulSoup(r.text, 'lxml').find('div', id="cont")
    n = n+1
    if not title: continue

    insertDb(db, title.text, content.text)
    if not n%50 :
        print(n)
        db.commit()
        time.sleep(1)


db.close()

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值