python discuz_用python爬虫采集discuz论坛数据

2019年课程规划及价格说明

PHP实战视频教程大全

打算做一个论坛,可是论坛数据量大如果全靠自己手动发布工作了就太大了

所以就想用python写一个入门级的爬虫,其实爬虫写好了才发现,写爬虫采集数据非常简单,难的是往discuz里面插入数据

因为涉及到的表太多了,瞬间我就不想用了,我们可以自己写一个博客,把采集到的数据插入进去,这也是一个解决方案不是吗

总而言之爬虫写好了,分享给大家,也希望大家可以支持童攀课堂,在这里我们会经常发布一些有技术含量的文章:

from bs4 import BeautifulSoup

import requests

import re

import time

import pymysql

def dbsql(title,content):

db= pymysql.connect(host="localhost",user="root",

password="root",db="blog",port=3306)

cur = db.cursor()

sql_insert ="insert into test(title,content) values('"+ title +"','"+ content +"')"

try:

cur.execute(sql_insert)

#提交

db.commit()

except Exception as e:

#错误回滚

db.rollback()<

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值