豆瓣数据摘取

豆瓣数据摘取

# -*-  codeing = utf-8 -*-

import sys   
# 进行网页解析
from bs4 import BeautifulSoup    
# 正则表达式,进行文字匹配
import re
# 制定 URL,获取网页数据
import urllib.error,urllib.request
# 进行Excel操作
import xlwt
# 进行SQLite数据库操作
import sqlite3


def main():
    baseurl = 'https://book.douban.com/top250?start='
    # 1、爬取网页
    datalist = getData(baseurl)
    savepath = '.\\豆瓣top250.xls'
    # 3、保存数据
    saveData(savepath)

    askURL('https://book.douban.com/top250?start=')

# 2、爬取网页
def getData(baseurl):
    datalist = []
    # 2.逐一解析数据
    return datalist

# 得到指定一个URL的网页内容
def askURL(url):
    head = {    # 模拟浏览器头部信息,想浏览器发送消息
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36"
    }
    # 表示告诉豆瓣服务器,我们是什么类型的机器、浏览器(本质上是告诉浏览器,我们可以接受什么水平的文件内容)

request = urllib.request.Request(headers="User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36")
html = ''
try:
    response = urllib.request.URLopen(request)
    hrml = response.read().decode('utf-8')
    print(hrml)
except urllib.error.URLError as e:
    if hasattr(e,'code'):
        print(e,'code')
    if hasattr(e,'reason'):
        print(e.reason)




# 保存数据
def saveData(savepath):
    print('save....')


 #当程序执行时,控制多个函数和流程,更清晰的控制主流程
if __name__ =='__main__':     
    # 调用函数
    main()


Python网络爬虫与推荐算法新闻推荐平台:网络爬虫:通过Python实现新浪新闻的爬取,可爬取新闻页面上的标题、文本、图片、视频链接(保留排版) 推荐算法:权重衰减+标签推荐+区域推荐+热点推荐.zip项目工程资源经过严格测试可直接运行成功且功能正常的情况才上传,可轻松复刻,拿到资料包后可轻松复现出一样的项目,本人系统开发经验充足(全领域),有任何使用问题欢迎随时与我联系,我会及时为您解惑,提供帮助。 【资源内容】:包含完整源码+工程文件+说明(如有)等。答辩评审平均分达到96分,放心下载使用!可轻松复现,设计报告也可借鉴此项目,该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的。 【提供帮助】:有任何使用问题欢迎随时与我联系,我会及时解答解惑,提供帮助 【附带帮助】:若还需要相关开发工具、学习资料等,我会提供帮助,提供资料,鼓励学习进步 【项目价值】:可用在相关项目设计中,皆可应用在项目、毕业设计、课程设计、期末/期中/大作业、工程实训、大创等学科竞赛比赛、初期项目立项、学习/练手等方面,可借鉴此优质项目实现复刻,设计报告也可借鉴此项目,也可基于此项目来扩展开发出更多功能 下载后请首先打开README文件(如有),项目工程可直接复现复刻,如果基础还行,也可在此程序基础上进行修改,以实现其它功能。供开源学习/技术交流/学习参考,勿用于商业用途。质量优质,放心下载使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值