2021-09-04

爬虫-4K壁纸网获取图片

介绍:使用requests 模块获取网页,用BeautifuSoup解析网页,最后提取标签内容,使用wget下载图片。

适用:新手学习爬虫

代码

import re
import requests
import wget
from bs4 import BeautifulSoup as bs
import time
import os
import struct

#获取一个网页
def reback_html(url):
    headers = {
        "User_Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.141 Safari/537.36"}
    html = requests.get(url, headers=headers)
    html.encoding = 'utf-8'
    soup = bs(html.text, 'lxml')

    return soup     #z#z
#列表表格输出
def list_show(lis):
    j=0
    for i in lis:
        print("第{}个输出:".format(j),lis[j])
        j=j+1
#正则匹配找出图片地址
def re_img(lis_soup): #lis_soup 表示查找成的一个标签列表
    lis = []
    for i in lis_soup:
        img_link = re.findall('src="(.*.jpg)"', str(i))
        if img_link :
            lis.append(img_link[0])
    print(lis)
    return  lis
#发现图片只有一部分,所以进行一个合成
def combine(url_head,lis2):
    lis = []
    for i in lis2 :
        lis.append(url_head+i)
    return lis
#requests下载图片
def wenjian1(name,lis3):
    headers = {
        "User_Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.141 Safari/537.36"}
    #创建文件夹
    if not os.path.exists('./'+name):
        os.mkdir('./'+name)
    j=0
    for i in  lis3 :
        img_data = requests.get(i,headers=headers)
        img_data_buf = struct.pack('11s',img_data.text.encode('utf-8'))
        # img_data.text.encode('utf-8')
        print(type(img_data_buf))
        img_path ='./'+name+'/'+str(j)+'.jpg'
        j=j+1
        with open(img_path,'wb') as fp :
            fp.write(img_data_buf)
            print('第{}张图片下载成功'.format(j))
#wget方法下载图片
def wget_img(name,lis3):
    #创建文件夹
    if not os.path.exists('./'+name):
        os.mkdir('./'+name)
    img_path = './'+name+'/'
    for i in  lis3 :
        wget.download(i,img_path)


if __name__ == '__main__':
    url = 'https://pic.netbian.com/4kyingshi/'
    url_head = 'https://pic.netbian.com' #头
    #做一个汤
    soup = reback_html(url)
    #查找所有a标签
    lis = soup.find_all('a')
    #对所有a标签进行二次查找
    lis2 = re_img(lis)
    #网址合成
    lis3 = combine(url_head,lis2)

    #下载
    wget_img('影视',lis3)



效果:
在这里插入图片描述

介绍代码

第一步
导入代码中的模块,若是没有就直接pip install 或者pip3 install
第二步
reback_html()的功能:
访问url,用get方法获取网页,对网页进行使用BeautifulSoup解析
第三步
用soup.find_all(‘a’)找到图片连接的标签位置,返回一个列表
第四步
re_img()的功能:
对a标签中的图片地址 src 采用正则匹配提取出来,返回一个列表
第五步
wget_img()的功能:
下载列表中的图片地址,保存下路

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用python中的pymsql完成如下:表结构与数据创建 1. 建立 `users` 表和 `orders` 表。 `users` 表有用户ID、用户名、年龄字段,(id,name,age) `orders` 表有订单ID、订单日期、订单金额,用户id字段。(id,order_date,amount,user_id) 2 两表的id作为主键,`orders` 表用户id为users的外键 3 插入数据 `users` (1, '张三', 18), (2, '李四', 20), (3, '王五', 22), (4, '赵六', 25), (5, '钱七', 28); `orders` (1, '2021-09-01', 500, 1), (2, '2021-09-02', 1000, 2), (3, '2021-09-03', 600, 3), (4, '2021-09-04', 800, 4), (5, '2021-09-05', 1500, 5), (6, '2021-09-06', 1200, 3), (7, '2021-09-07', 2000, 1), (8, '2021-09-08', 300, 2), (9, '2021-09-09', 700, 5), (10, '2021-09-10', 900, 4); 查询语句 1. 查询订单总金额 2. 查询所有用户的平均年龄,并将结果四舍五入保留两位小数。 3. 查询订单总数最多的用户的姓名和订单总数。 4. 查询所有不重复的年龄。 5. 查询订单日期在2021年9月1日至9月4日之间的订单总金额。 6. 查询年龄不大于25岁的用户的订单数量,并按照降序排序。 7. 查询订单总金额排名前3的用户的姓名和订单总金额。 8. 查询订单总金额最大的用户的姓名和订单总金额。 9. 查询订单总金额最小的用户的姓名和订单总金额。 10. 查询所有名字中含有“李”的用户,按照名字升序排序。 11. 查询所有年龄大于20岁的用户,按照年龄降序排序,并只显示前5条记录。 12. 查询每个用户的订单数量和订单总金额,并按照总金额降序排序。
最新发布
06-03

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值