爬虫
那个雨季
这个作者很懒,什么都没留下…
展开
-
python3 windows下的几乎万能爬虫方法
解决selenium下被反扒的情况# -*- encoding:utf-8 -*-import timeimport requestsfrom selenium.webdriver.common.by import Bydef get_data(cookies): headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like原创 2022-05-08 20:43:06 · 1272 阅读 · 2 评论 -
使用requests和urllib下载文件
import requestsimport urllib.request as ur# requests方式# response = requests.get(# "https://timgsa.baidu.com/timg?image&quality=80&size=b9999_10000&sec=1599762352425&di=7ca234f2e2998438f51f83465e82c1ee&imgtype=0&src=http%3A%2原创 2020-09-13 10:09:03 · 409 阅读 · 0 评论 -
爬取王者荣耀高清皮肤
爬虫中使用多线程爬虫是一种很常见的方式,可以提高爬取的效率,特别是生产者消费者模型也经常可以见到,今天刚好学习了这种模式,爬取下王者荣耀的高清壁纸,作为练习import requestsfrom urllib import parse,requestimport osimport threadingfrom queue import Queue# 下载高清王者荣耀皮肤壁纸# 1.拿...原创 2020-04-18 21:22:55 · 502 阅读 · 0 评论 -
CSV文件的读取与写入方式
csv的读取csv文件的写入原创 2020-06-27 19:15:51 · 628 阅读 · 0 评论 -
python爬虫-爬取快代理的ip地址
爬取快代理的ip地址在使用爬虫时,经常会被识别,进而不能爬取相应的网站,所以此时,我们就想到了,用代理去爬取,这样就隐藏了客户端常见的一些免费代理的网址为:https://www.kuaidaili.com/free/https://www.xicidaili.com/from bs4 import BeautifulSoupimport timeimport requestsim...原创 2020-04-12 21:07:10 · 906 阅读 · 0 评论 -
python爬虫-爬取boss直聘的职位信息
爬取boss直聘的相应的职位信息:一个同学今天想找工作,问我有什么好单位,关键我也不清楚,于是我去各大招聘网站搜索了下,有很多招聘信息,看的我眼花缭乱,刚看完的职位,忘记收藏又过去搜索,感觉太麻烦,于是就想着把内容爬取下来,慢慢看,慢慢分析,先从boss直聘开始爬取具体代码如下**import requestsfrom lxml import etreeimport urllib3ur...原创 2020-04-12 21:04:04 · 5112 阅读 · 0 评论 -
Python网络爬虫-正则表达式-转义字符和原生字符串
往下看:150讲课程内容花2分钟了解下~ 重点:通过爬虫进阶的知识点我们能应对大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度! 你将收获~~ 1、面向企业实际需求,为零基础从入门到进阶中级python爬虫工程打造。 2、从网络抓包开始讲起,到网...原创 2020-04-12 13:13:47 · 485 阅读 · 0 评论 -
BeautifulSoup的简单使用
from bs4 import BeautifulSouphtml="""<div id="noticeLink" class="notice notice-fixed notice-hide" monkey="noticeFixed"><a href="http://tuijian.hao123.com/" class="">更多新闻资讯</a>&l...原创 2020-04-12 21:14:41 · 163 阅读 · 0 评论 -
爬取豆瓣top20电影
通过python爬取豆瓣的top100的电影名称,评分,上映时间,主演原创 2019-09-08 19:39:02 · 488 阅读 · 0 评论 -
我的第一个爬虫脚本,爬取笑话集合
我的 第一个爬虫脚本:某网站的段子:1、首先需要用到requests和lxml库pip install requestspip install lxml#代码如下:import requestsfrom lxml import etreeimport lxml#本次使用的是获取知乎上的笑话段子# 定义urlurl = “http://www.goodmood.cc/yulu...原创 2019-09-08 19:18:17 · 303 阅读 · 0 评论