- 博客(4)
- 收藏
- 关注
原创 爬虫练习:获取豆瓣top250的电影
from bs4 import BeautifulSoup import requests import csv '''获取页面内容''' def get_url_content(page): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ' 'Chrome/83.0
2021-10-23 17:48:33
251
原创 python抓取wallhaven首页壁纸
python抓取wallhaven首页壁纸 """ 下载wallheaven首页图片,保存在同级文件夹image中 """ from bs4 import BeautifulSoup import requests import re import os """ 图片下载函数 Pic_url为图片的url save_path为图片保存路径 Headers为请求头,有默认参数 """ # noinspection PyDefaultArgument def DownloadImage(Pic_url,
2021-05-16 23:51:02
418
原创 Java爬虫爬取wallhaven的图片
Java爬虫爬取wallhaven的图片 wallhaven网站拒绝java程序访问,所以要伪装报头。 发送请求时 Connection con = Jsoup.connect(imgSrc) .header("User-agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.66 Safari/537.36")
2020-12-13 20:53:36
559
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人