python爬取网页停止_我的python抓取几条数据之后就停止运行了,这是什么问题

这段代码是一个Python爬虫程序,用于收集MBA院校新闻。遇到问题:爬虫在抓取几条数据后停止运行。程序从数据库获取规则,然后使用BeautifulSoup和正则表达式解析HTML,提取链接,并存储新闻数据。遇到URL重复和数据已存在的情况时,程序会记录错误信息。可能的停止原因包括:网络连接超时、数据库操作问题、URL处理错误等。
摘要由CSDN通过智能技术生成

具体代码如下,请帮忙解决一些,谢谢了

# -*- coding:utf-8 -*-

'''

MBA院校新闻收集器

'''

import re # 网络连接模块

import bs4 # DOM解析模块

import pymysql # 数据库连接模块

import urllib # 网络访问模块

import urllib.request # 网络访问模块

import urllib.error # 网络访问模块

import time # 时间模块

import random # 随机数模块

import lxml # lxml模块

from lxml.html.clean import Cleaner, clean_html # 清除模块

import selenium

# from datetime import *

# 数据库连接参数

db_config = {

'host': '127.0.0.1',

'port': '3306',

'username': 'root',

'password': 'error.error',

'database': 'hxedu',

'charset': 'utf8'

}

# 连接数据库

connect = pymysql.Connect(

host=db_config['host'], # 数据库地址 localhost/127.0.0.1

port=int(db_config['port']), # 数据库端口

user=db_config['username'], # 连接数据库的用户名

passwd=db_config['password'], # 链接数据库的密码

db=db_config['database'], # 数据库名称

charset=db_config['charset'] # 数据库编码

)

cursor = connect.cursor()

cursor.execute("select * from bs_college_rules WHERE isdelete=0") # 查询获取url规则表中的所有数据

results = cursor.fetchall()

for row in results :

collegeid = row[1]

index_url = row[2]

html_code = row[3]

home_url = row[4]

columns_url = row[5]

column_img = row[6]

column_parent = row[7]

column_title = row[8]

column_keywords = row[9]

column_description =

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值