python基础(六)——爬虫

内容来源:雨敲窗python教程

爬取糗事百科的段子

#_*_ coding: utf-8 _*_
import re
import requests
import html
import time

def crawl_joke_list(page = 1):
    url = "https://www.qiushibaike.com/8hr/page/" + str(page)
    res = requests.get(url)
    #获取每个段子的正则
    pattern = re.compile("<div class=\"article block untagged mb15.*?<div class=\"content\">.*?</div>", re.S)
    body = html.unescape(res.text).replace("<br/>", "\n")
    m = pattern.findall(body)
    #抽取用户名的正则
    user_pattern = re.compile("<div class=\"author clearfix\">.*?<h2>(.*?)</h2>", re.S)
    #抽取段子内容的正则
    content_pattern = re.compile("<div class=\"content\">.*?<span>(.*?)</span>.*?</div>", re.S)
    f = open("c:/Users/47864/Desktop/1.txt", "a", encoding='utf-8')
    for joke in m:
        user = user_pattern.findall(joke)
        output = []
        if len(user) > 0:
            output.append(user[0])
        content = content_pattern.findall(joke)
        if len(content) > 0:
            output.append(content[0].replace("\n", ""))
        print("\t".join(output))
        f.writelines("\t".join(output))
    time.sleep(2)
    f.close()

if __name__ == '__main__':
    for i in range(1, 10):
        crawl_joke_list(i)

爬取糗事百科图片

#_*_coding: utf-8_*_
import requests
import re

def crawl_img(img_url, img_local_path):
    r = requests.get(img_url, stream=True)
    with open(img_local_path, "wb") as f:
        f.write(r.content)

def crawl(page):
    img_path = "c:/Users/47864/Desktop/img/"
    url = "http://www.qiushibaike.com/imgrank/page/" + str(page)
    res = requests.get(url)
    content_list = re.findall("<div class=\"thumb\">(.*?)</div>", res.content.decode('utf-8'), re.S)
    for content in content_list:
        img_list = re.findall("<img src=\"(.*?)\"", content)
        for img_url in img_list:
            crawl_img("https:" + img_url, img_path + img_url.strip().split('/')[-1])

if __name__ == '__main__':
    crawl(1)

需要注意的是爬取图片的时候糗事百科网页源代码中图片的url是没有协议的,需要我们自己补上去,不然会报错requests.exceptions.MissingSchema: Invalid URL

Python网络爬虫与推荐算法新闻推荐平台:网络爬虫:通过Python实现新浪新闻的爬取,可爬取新闻页面上的标题、文本、图片、视频链接(保留排版) 推荐算法:权重衰减+标签推荐+区域推荐+热点推荐.zip项目工程资源经过严格测试可直接运行成功且功能正常的情况才上传,可轻松复刻,拿到资料包后可轻松复现出一样的项目,本人系统开发经验充足(全领域),有任何使用问题欢迎随时与我联系,我会及时为您解惑,提供帮助。 【资源内容】:包含完整源码+工程文件+说明(如有)等。答辩评审平均分达到96分,放心下载使用!可轻松复现,设计报告也可借鉴此项目,该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的。 【提供帮助】:有任何使用问题欢迎随时与我联系,我会及时解答解惑,提供帮助 【附带帮助】:若还需要相关开发工具、学习资料等,我会提供帮助,提供资料,鼓励学习进步 【项目价值】:可用在相关项目设计中,皆可应用在项目、毕业设计、课程设计、期末/期中/大作业、工程实训、大创等学科竞赛比赛、初期项目立项、学习/练手等方面,可借鉴此优质项目实现复刻,设计报告也可借鉴此项目,也可基于此项目来扩展开发出更多功能 下载后请首先打开README文件(如有),项目工程可直接复现复刻,如果基础还行,也可在此程序基础上进行修改,以实现其它功能。供开源学习/技术交流/学习参考,勿用于商业用途。质量优质,放心下载使用。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值