22.豆瓣数据保存到sqlite。

本文介绍了使用Python爬取豆瓣Top250电影数据,包括图片链接、电影名、评分等信息,并将数据存储到SQLite数据库的过程。在存储过程中遇到数据库IntegrityError,经过调试解决了数据类型匹配问题。
摘要由CSDN通过智能技术生成

0522,未调试完毕。

0525 调试成功

问题:

1,数据库自增长字段不需要添加数据。

2,数据库插入多项数值,用values()

3,数据库插入数据,表头名数据类型和插入数据的类型需要对应。

4,数据库插入数据,表中的数据列和插入数据的数量需要对应。

运行结果。

错误代码:sqlite3.IntegrityError: datatype mismatch

#-- codeing= utf-8 --
#author: zoe
#date: 2020/5/15

from bs4 import BeautifulSoup
import urllib
import urllib.request
import re
import openpyxl as ox
import sqlite3
#1.爬取网页
#2.逐一解析数据
#3.保存数据
def main():
baseurl = ‘https://movie.douban.com/top250?start=’
datalist = getData(baseurl)
#savepath = “.\豆瓣电影Top250.xlsx”
#saveData(datalist,savepath)
dbpath = ‘.\movie250.db’
saveData2db(datalist,dbpath)
# askURL(baseurl)
#影片详情链接的规则
findLink= re.compile(r’’)
#影片图片
findImgSrc = re.compile(r’<img alt.src="(.?)"’,re.S) #re.S不包括换行符,S大写
#影片片名
findName = re.compile(r’(.)’)
#影片评分
findRating = re.compile(r’(.)’)
#影片评价人数
findPJ = re.compile(r’(\d*)人评价’)
#影片总结
findInq = re.compile(r’(.)’)
#影片相关内容
findBd = re.compile(r’

(.?)

’,re.S)

def askURL(url):
headers = {
“User-Agent”: “Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36”
}

url = ‘https://movie.douban.com/top250?start=0&’

req = urllib.request.Request(url, headers=headers)  #发送请求的格式
html = ''
try:                                        ##异常捕获
    response = urllib.request.urlopen(req)   ##将请求返回的结果对象给response
    html = response.read().decode('utf-8')    ###读取response,并进行解码
    #print(html)
except urllib.error.URLError as e:            #异常处理
    if hasattr(e,'code'):
        p
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值