2021-04-25

对豆瓣小说网爬取豆瓣网小说网页前10页所有小说的信息(网页地址为:https://book.douban.com/tag/小说),包括每一部小说的如下信息(作者、小说名、出版社、出版日期、价格、评分、评分人数、内容简介),并将这些信息存储到数据库中。数据库不限于sqlite, -部小说一条记录。最后需要实现查询某部小说信息的功能。

一、导入数据库

import requests
from bs4 import BeautifulSoup as bs
import sqlite3

二、定义函数爬取网页源代码

def getHTML(url):
    headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.72 Safari/537.36 Edg/90.0.818.42'
    }
    r = requests.get(url, headers=headers)
    r.encoding = r.apparent_encoding
    html = r.text
    return html

三、对每一页进行爬取,并将结果保存到文件存储

# 对每一页进行爬取,并将结果保存到文件存储
i=0
f = open('xaioshuo.text', 'w+', encoding='utf-8')
if i<=200:

    root = 'https://book.douban.com/tag/%E5%B0%8F%E8%AF%B4?start={}&type=T'.format(i)

    i=i+20
    html = getHTML(root)

    poet_title_div = bs(html, 'html.parser').select('h2')
    poet_titles = [item.text for item in poet_title_div]

    poet_author_div = bs(html, 'html.parser').select('div.pub')
    poet_authors = [item.text for item in poet_author_div]

    poet_num= bs(html, 'html.parser').select('span.rating_nums')
    poet_nums= [item.text for item in poet_num]

    poet_pl1 = bs(html, 'html.parser').select('span.pl')

    poet_div = bs(html, 'html.parser').select('p')
    poet_contents = [item.text for item in poet_div]


四、创建数据库

conn = sqlite3.connect('xiaoshuo.db')
sql_tables = "create table xiao(id integer primary key autoincrement,name text,author text,grade text,people text,content text)"
conn.execute(sql_tables)
conn.commit()
contents=[]
page=contents.append(poet_titles+poet_authors+poet_nums+poet_pl+poet_contents)
print("开始存入数据库....")

五、写入数据库

for index,page in enumerate(contents):
     print("写入第{}页的小说".format(index+1))
     for i in range(20):
        #string=page[i]+page[i+20]+page[i+40]
        name=page[i]
        author=page[i+20]
        grade=page[i+40]
        people=page[i+60]
        content=page[i+80]
        sql="insert into xiao values(null,'{}','{}','{}','{}','{}')".format(name,author,grade,people,content)
        conn.execute(sql)
        conn.commit()
     print("第{}页的小说已经爬取完毕,稍等进行下一页".format(i+1))

最后附带可视化查询图:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用python中的pymsql完成如下:表结构与数据创建 1. 建立 `users` 表和 `orders` 表。 `users` 表有用户ID、用户名、年龄字段,(id,name,age) `orders` 表有订单ID、订单日期、订单金额,用户id字段。(id,order_date,amount,user_id) 2 两表的id作为主键,`orders` 表用户id为users的外键 3 插入数据 `users` (1, '张三', 18), (2, '李四', 20), (3, '王五', 22), (4, '赵六', 25), (5, '钱七', 28); `orders` (1, '2021-09-01', 500, 1), (2, '2021-09-02', 1000, 2), (3, '2021-09-03', 600, 3), (4, '2021-09-04', 800, 4), (5, '2021-09-05', 1500, 5), (6, '2021-09-06', 1200, 3), (7, '2021-09-07', 2000, 1), (8, '2021-09-08', 300, 2), (9, '2021-09-09', 700, 5), (10, '2021-09-10', 900, 4); 查询语句 1. 查询订单总金额 2. 查询所有用户的平均年龄,并将结果四舍五入保留两位小数。 3. 查询订单总数最多的用户的姓名和订单总数。 4. 查询所有不重复的年龄。 5. 查询订单日期在2021年9月1日至9月4日之间的订单总金额。 6. 查询年龄不大于25岁的用户的订单数,并按照降序排序。 7. 查询订单总金额排名前3的用户的姓名和订单总金额。 8. 查询订单总金额最大的用户的姓名和订单总金额。 9. 查询订单总金额最小的用户的姓名和订单总金额。 10. 查询所有名字中含有“李”的用户,按照名字升序排序。 11. 查询所有年龄大于20岁的用户,按照年龄降序排序,并只显示前5条记录。 12. 查询每个用户的订单数和订单总金额,并按照总金额降序排序。
06-03

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值