python
文章平均质量分 57
一蓑烟雨任平生√
这世上的一切都借希望而完成,农夫不会剥下一粒玉米,如果他不曾希望它长成种粒;单身汉不会娶妻,如果他不曾希望有孩子;商人也不会去工作,如果他不曾希望因此而有收益。
----不为失败找借口,志伟成功找方法
展开
-
Python_玩转多线程_一蓑烟雨任平生
写的多线程的使用原创 2022-09-06 13:32:55 · 765 阅读 · 0 评论 -
一行代码搭建一个简易的本地文件服务器_附带外网教程_一蓑烟雨任平生
文章目录前言一、提前准备1.首先你要有Python环境2.下载个utool3.cmd查看本地ip二、三步搭建1.一行代码2.启动服务三、测试1.内网测试2.外网测试1.配置utool内网穿透2.看看外网效果四、改良1.bat一键启动2.双击运行总结前言有时候下载东西好慢,传输数据无论是同个公司下或者别的公司,或者朋友的文件,用qq传输,几个G还可以,用微信传输200M以上文件就无法传输了,如果是几十个G的话是不是心态就炸了一、提前准备1.首先你要有Python环境没环境你玩个毛啊2.下载原创 2021-05-19 11:46:39 · 1622 阅读 · 6 评论 -
Python爬虫抓取气象_bs4+定时器+mysql+对象_一蓑烟雨任平生
文章目录前言说啥呢?直接扔代码吧看不懂的话你细品 留言也可以 进群也可以总结前言麻雀虽小 五脏俱全 这篇爬虫文章涉及的技术不少bs4抓取数据 (之前一直用xpath感觉一种东西吃多了会腻)定时器(一次执行终身执行 懒人必备)mysql(数据库 存数据的地方)对象(面向对象编程)说啥呢?直接扔代码吧看不懂的话你细品 留言也可以 进群也可以# -*- coding: utf-8 -*-"""# @Time : 2021/4/6 10:10 # @Author : 一蓑烟雨任平生原创 2021-04-06 16:06:51 · 308 阅读 · 0 评论 -
Python自学Django_踩坑日记_持续更新_一蓑烟雨任平生
文章目录前言一、Django 是什么?教程特点适合人群二、踩坑日记1.右键启动不了解决办法:2.进入不了管理页面解决办法:3.总结前言按照这篇文档一步一步来的,具体操作不再描述,只是描述下遇到的各种坑Django从入门到精通,从无到有,从0到i++一、Django 是什么?Django 是一个由 Python 写成的开源Web应用框架,可以用它以更高的效率、更少的代码,搭建一个高性能的个人网站。如果你以前从未接触过 web 开发,并且想快速上线自己的个性化网站,Django 绝对是你的最佳选原创 2021-02-07 14:04:25 · 299 阅读 · 0 评论 -
Python将网页转成pdf神器pdfkit库的使用__一蓑烟雨任平生
文章目录前言先看下成果图哈一、安装必要软件二、开怼代码1.引入库2.导包3.糟糕网站4.创建对象HtP5.获取链接思路:6.获取正文内容7.循环每个内容拼接成大的页面8.开始打印内容!打印为什么不直接打印内容?那三个参数分别代表什么?9.最后一步来个main跑起来最后,附上源码?总结前言有的网页查看起来不是很方便,于是就想到了,转成pdf转下来慢慢看?先看下成果图哈最终效果就是这样子,感觉是不是很炫酷,哈哈哈一、安装必要软件wkhtmltopdf,这个工具的下载网站是:点这里感觉下载慢原创 2021-02-06 11:48:37 · 1246 阅读 · 1 评论 -
pip安装不是包名__一蓑烟雨任平生
cv2pip install opencv-python原创 2021-02-04 09:19:16 · 319 阅读 · 0 评论 -
Python_Twisted-23.3.0-cp39-cp39-win_amd64&&&Twisted-23.3.0-cp38-cp38-win_amd64免费下载——一蓑烟雨任平生
废话不多说,直接上whl的链接链接:告诉下载whl提取码:6666复制这段内容后打开百度网盘手机App,操作更方便哦–来自百度网盘超级会员V10的分享原创 2021-01-28 16:09:07 · 453 阅读 · 0 评论 -
Python获取昨天日期&datetime&timedelta&strftime()用法——一蓑烟雨任平生
笔记def getYesterday(): # 获取昨天日期的字符串格式的函数 #获取今天的日期 today = datetime.date.today() #获取一天的日期格式数据 oneday = datetime.timedelta(days=1) #昨天等于今天减去一天 yesterday = today - oneday #获取昨天日期的格式化字符串 yesterdaystr = yesterday.strftime('%Y-%m-%d')原创 2021-01-28 09:42:56 · 5883 阅读 · 2 评论 -
Python各种镜像链接——一蓑烟雨任平生
Python解释器selenium必备谷歌浏览器插件pip国内镜像阿里云 http://mirrors.aliyun.com/pypi/simple/豆瓣http://pypi.douban.com/simple/清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/中国科学技术大学 http://pypi.mirrors.ustc.edu.cn/simple/华中科技大学http://pypi.hustunique.com/代码:[global]原创 2021-01-27 14:55:21 · 245 阅读 · 0 评论 -
Python表格专题_openpyxl_一蓑烟雨任平生
文章目录前言一、openpyxl总结前言表格用到很多,python给我们页提供很多库,今天讲解下openpyxl的使用一、openpyxldef get_excel(data, field, file): # 将数据和字段名写入excel的函数 #新建一个工作薄对象 new = openpyxl.Workbook() #激活一个新的sheet sheet = new.active #给sheet命名 sheet.title = '数据展示' #将字原创 2021-01-27 09:07:55 · 209 阅读 · 0 评论 -
Python两种获取cookie方法以及拼接cookie_一蓑烟雨任平生
文章目录前言cookie有什么用呢?下面两种法介绍获取网页Cookieselenium获取cookie后进行组装requests获取cookie总结前言cookie有什么用呢?我的理解就是保持登录状态,有时候爬取网页不需要输入账号密码,就是因为携带了cookie下面两种法介绍获取网页Cookieselenium获取cookie后进行组装cookie = driver.get_cookies() pp = ''for i, key in enumerate(cookie[0]):原创 2021-01-26 17:14:24 · 1818 阅读 · 0 评论 -
Python某宝数据爬取_一蓑烟雨任平生
文章目录前言一、前期准备二、使用步骤1.引入库2.读入数据总结前言本篇文章仅供Python学习,禁止商业用途,其中需要优化的地方很多,比如爬取页数,又比如按条件排序爬取,想拿走就拿走,毕竟得不到什么,这里对自己的成果做一下记录,仅此而已一、前期准备示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。二、使用步骤1.引入库代码如下(示例):import numpy as npimport pandas as pdimport matplotlib.p原创 2021-01-26 12:01:47 · 538 阅读 · 0 评论 -
Python解决乱码万能方法以及一些个人思路_一蓑烟雨任平生
文章目录前言一、乱码是什么二、解决方法1.第一种:2.第二种:第一步:查看网页编码第二步:转换编码总结前言最近粉丝在爬取文章时,总遇到乱码,而不知道该如何下手,这里就总结一下应对乱码的方法一、乱码是什么乱码,指的是由于本地计算机在用文本编辑器打开源文件时,使用了不相应字符集而造成部分或所有字符无法被阅读的一系列字符。造成其结果的原因是多种多样的。二、解决方法1.第一种:乱码的产生可能是因为全部搞成utf-8格式,然后忽略别的所有格式格式具体操作就不写了,请看我的另外一篇文章编码解码解决原创 2021-01-25 14:06:09 · 834 阅读 · 0 评论 -
Python 小白上手的简单爬虫——肯德基——一蓑烟雨任平生
老规矩,直接上代码# -*- coding: utf-8 -*-"""@Time : 2021/1/22 10:46@Auth : 张张呀@File :肯德基.py@IDE :PyCharm@Motto:ABC(Always Be Coding)"""from tkinter import Tk, messageboximport easyguiimport requeststop = Tk()top.withdraw()class kendeji: def _原创 2021-01-22 11:04:38 · 386 阅读 · 1 评论 -
Python 笔记_不积跬步无以至千里_一蓑烟雨任平生
Xpath://div[contains(@class,"td-01")]Selenium:在这里插入代码片原创 2021-01-19 17:42:03 · 485 阅读 · 0 评论 -
Python解决反爬机制_滑块解锁的思路以及踩的坑+心得_一蓑烟雨任平生
文章目录前言一、下载滑块与背景图二、对比像素算出距离三、模仿人为滑动破解总结前言网上的的滑块解锁图形,五花八门,十个里面九个瘫,步步都是坑一、下载滑块与背景图二、对比像素算出距离三、模仿人为滑动破解总结...原创 2021-01-07 15:30:56 · 3618 阅读 · 4 评论 -
Python selenium自动化脚本右键保存图片_一蓑烟雨任平生
文章目录前言一、第一种方法:win32api二、第二种方法:pyautogui总结前言右键保存,网上找到了一些代码,执行后,没效果from selenium.webdriver.common.action_chains import ActionChainsfrom selenium import webdriverchromedriver = "D:\python3.6\Scripts\chromedriver.exe"driver = webdriver.Chrome(chromedriv原创 2021-01-07 14:39:14 · 1108 阅读 · 1 评论 -
Python_爬虫_多线程入门_一蓑烟雨任平生
文章目录前言一、基础知识二、Demo代码总结前言使用这篇Dome的代码可以入门多线程一、基础知识1.python多线程 生产者与消费者模式官方文档:17.1. threading — 基于线程的并行点这里两个案例参考:用Python多线程实现生产者消费者模式点这里python-多线程3-生产者消费者点这里2.@property 装饰器既要保护类的封装特性,又要让开发者可以使用“对象.属性”的方式操作操作类属性,除了使用 property() 函数,Python 还提供了 @property原创 2021-01-07 09:50:19 · 376 阅读 · 0 评论 -
Python图片下载器(单线程PK多线程)_一蓑烟雨任平生
文章目录前言一、有编程基础的看这个二、没编程基础的看这个总结前言最近电脑总是弹出少儿不宜网站,关了,过两天又出来,我真的受不了了,那就盘它好了,本博客分两部分,针对小白一份源码,针对不会编程的人群一份exe,双击就可以了一、有编程基础的看这个# 爬取妹子图全网妹子图片,可以选择爬取年份,自动分类保存import requests, os, timeimport urllib3 # 这个纯粹防止warning提示,没啥作用import easyguiurllib3.disable_war原创 2021-01-08 11:03:30 · 1782 阅读 · 0 评论 -
Python_selenium_自动化_一蓑烟雨任平生
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、selenium是什么?二、使用步骤1.下载自动化谷歌浏览器2.使用selenium下载一张图片总结前言自动化爬虫,实现了机器帮人点开网页进行操作,可以解决99%的问题一、selenium是什么?Selenium [1] 是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,S原创 2021-01-05 14:41:15 · 390 阅读 · 1 评论 -
Python抖音去水印_一步到位_一蓑烟雨任平生
直接上代码import requestsimport jsonimport easyguifrom tkinter import messageboxfrom tkinter import *top = Tk()top.withdraw()class douyin_video(): def __init__(self): self.headers = {'Accept': 'text/html,application/xhtml+xml,applicatio原创 2021-01-05 11:07:02 · 1446 阅读 · 12 评论 -
爬虫万能模板之XPath_没有爬不到的数据只有想不到的网站_一蓑烟雨任平生
文章目录前言一、上模板代码二、讲解1.找到需要的网址2.找到Xpath的值怎么找?3.替换Xpath4.组装5.运行总结前言先上代码,就七八行代码,然后讲解怎么套模板一、上模板代码import requestsfrom lxml import etreeimport timeif __name__ == '__main__': headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) A原创 2021-01-04 18:52:52 · 450 阅读 · 0 评论 -
Python爬虫_宅男福利?妹纸勿点__一蓑烟雨任平生
咳咳直接上代码#!/usr/bin/env python# -*- coding: utf-8 -*-# @Time : 2020/12/15 19:10# @Author : huni# @File : 图库大全1000.py# @Software: PyCharmimport requestsfrom lxml import etreeimport osif __name__ == '__main__': headers = { 'User-A原创 2021-01-04 18:20:59 · 14177 阅读 · 1 评论 -
爬虫抓取51Job职位_生成表格(找工作的看过来)_一蓑烟雨任平生
文章目录前言源码如下:看下效果:总结前言没啥好说的直接上源码吧源码如下:import easyguiimport requestsimport reimport xlwtfrom urllib import parsefrom tkinter import messageboxfrom tkinter import *# 主函数def main(): top = Tk() top.withdraw() savepath = "51.xls" # 定义保原创 2020-12-30 18:59:51 · 436 阅读 · 4 评论 -
自学数据分析师(1/7)__7天就业数据分析师__第一天matplotlib(12.30)__一蓑烟雨任平生
文章目录前言做一道简单的折线图题,自己敲出来代码,那今天的学习就够了做出一个折线图,显示10点到12点的温度,横坐标显示时间,十分钟一个刻度,纵坐标显示温度,要有标题,要有说明,而且要对比今天温度和昨天温度的差异最终效果如下:一、绘制折线图(plt.plot)第一步:导包第二步:写代码第三步:看效果数据分析的最初第一版的折线图也就出来了,代码注释很多,慢慢体会二、设置图片的大小和分辨率(plt.figure)第一步:写代码第二步:看效果三、实现了图片的保存(plt.savefig)第一步:写代码第二步:看效原创 2020-12-30 14:47:47 · 339 阅读 · 3 评论 -
Python文件运行说明书以及解决的过程_一蓑烟雨任平生
文章目录前言一、安装Python环境1-安装Python解析器2-安装所需要的包第一步:第二步二、运行Python文件1.修改数据库连接2.舆情和特色添加定时器方法如下第一:第二:3.供需和价格价格遇到的难点1价格遇到的难点24.文章爬取总结前言这篇文章主要是讲解下,爬虫爬取数据的使用方法,针对于有点点电脑基础的人,比如说会开机,会使用鼠标,会打字这些基本方法一、安装Python环境1-安装Python解析器如果你的电脑没有Python环境,是无法运行脚本的,这里有下载好的Python解释器,原创 2020-12-17 11:12:17 · 632 阅读 · 0 评论 -
Python发邮件_文末有彩蛋exe文件一键发邮箱_一蓑烟雨任平生
文章目录前言一、菜鸟教程的代码复制粘贴修改二、测试成果貌似成功了,去邮箱里查看下嗯,就这么简单,成功了三、改装版总结可以再增加一下输入邮箱自动发送,这个后期再加哈前言用Python进行邮件的发送,基本很简单,就是一个发送者,一个接受者,一个主题就够了现在开始具体步骤哈一、菜鸟教程的代码复制粘贴修改#!/usr/bin/python# -*- coding: UTF-8 -*-import smtplibfrom email.mime.text import MIMETextfrom原创 2020-12-16 15:47:58 · 718 阅读 · 0 评论 -
爬虫爬取LOL和TiMi,文章最后有福利,已打包EXE文件_一蓑烟雨任平生
import osimport requestsurl = 'https://pvp.qq.com/web201605/js/herolist.json'response = requests.get(url)heroList_json = response.json()hero_dir = 'wangzhe'if not os.path.exists(hero_dir): os.mkdir(hero_dir)# 创建存储的文件,判断是否存在,不存在就创建,自己可以更改for m原创 2020-12-10 10:44:34 · 420 阅读 · 4 评论 -
Python爬取彼岸图网10万张高清图片(入门级爬虫)_一蓑烟雨任平生
来张爬取的美女镇楼先上代码,再给你讲解import reimport requestsimport osimport easygui(min, max) = easygui.multenterbox(fields=['起始数', '终止数'], values=['1', '100'])min = int(min)max = int(max)if os.path.exists('zhiwei'): os.chdir('zhiwei')else: os.mkdir('z原创 2020-12-01 10:48:04 · 1914 阅读 · 4 评论 -
微信运动_刷步思路+Python源码+云部署(持续更新)_一蓑烟雨任平生
具体怎么修改微信运动,支付宝等步数呢?我也是突发奇想的,步数是服务器存的,平时我们走路都是上报给服务器数据,然后进行更新,那我可不可以直接给服务器发数据呢?数据肯定是手机发给服务器的,那么第一步就是想办法得到服务器发送的POST请求,由于是手机,所以用电脑的F12就GG了电脑有抓包工具,可以查到每个请求的链接,手机呢?手机也有,苹果手机直接用APP应用商店下载Stream,然后就可以抓包了抓到包之后看到了地址 还有参数,我们要做的就是把参数修改下,比如你走了一步,它发送一步的时候你改成99999,这原创 2020-11-11 21:12:04 · 36269 阅读 · 39 评论 -
农业图谱网_分类-列表-详情三级爬取(源码)_一蓑烟雨任平生
思路很简单就是先分类,爬取分类的数据,然后根据分类数据爬取每个种类下的列表数据,然后根据列表数据一个一个爬取详情数据废话不多说,直接上代码今天要倒霉的网站是农业图谱网# -*- coding: utf-8 -*-import requestsimport pymysqlfrom bs4 import BeautifulSoup # 用来解析网页import uuidimport timeheaders = { 'User-Agent': 'Mozilla/5.0 (Windows原创 2020-11-11 20:44:00 · 430 阅读 · 1 评论 -
农机资讯网_数据爬取(源码)_一蓑烟雨任平生
废话不多说,直接上代码今天要倒霉的网站是农机资讯网# -*- coding: utf-8 -*-import requestsimport pymysqlfrom bs4 import BeautifulSoup # 用来解析网页import uuidimport timeurl = "http://news.nongji360.com"headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleW原创 2020-11-11 20:40:15 · 378 阅读 · 0 评论 -
农机网_多模板页面,无限if抓取(源码)_一蓑烟雨任平生
这个网站算是比较棘手的了,因为每次标签位置都会变,一会标题在div里,一会再select里,一会又在span里,所以无限判断搞的,到最后我都不知道我在写什么了废话不多说,直接上代码今天要倒霉的网站是农机网# -*- coding: utf-8 -*-import requestsimport pymysqlfrom bs4 import BeautifulSoup # 用来解析网页import uuidimport timeurl = "https://www.nongjx.com"原创 2020-11-11 20:38:01 · 206 阅读 · 0 评论 -
新农网_同页面,多种编码,破译编码抓取(源码)_一蓑烟雨任平生
这个反解密搞了我一下午,网页编码一会UTF-8,一会ISO-8859-1,一会GBK,网上的说法不一,都没卵用,最后自己摸索出来的,对全文解码GBK,当遇到别的进行忽略,decode(‘gbk’, ‘ignore’)废话不多说,直接上代码今天要倒霉的网站是新农网# -*- coding: utf-8 -*-import requestsimport pymysqlfrom bs4 import BeautifulSoup # 用来解析网页import uuidimport timeur原创 2020-11-11 20:33:35 · 333 阅读 · 1 评论 -
中国农网_数据抓取(源码)_一蓑烟雨任平生
废话不多说,直接上代码今天要倒霉的网站是中国农网import requests # 用来请求网址import pymysql # 用来存数据库from fake_useragent import UserAgentfrom bs4 import BeautifulSoup # 用来解析网页import time# 中国农网headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/53原创 2020-11-11 20:26:37 · 433 阅读 · 0 评论 -
农业科学院搜索引擎_json数据爬取(源码)_一蓑烟雨任平生
废话不多说,直接上代码今天要倒霉的网站是农业科学院搜索引擎# -*- coding: utf-8 -*-import requestsimport pymysqlfrom bs4 import BeautifulSoup # 用来解析网页import uuidimport timeheaders = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko原创 2020-11-11 20:23:16 · 238 阅读 · 0 评论 -
中国农业信息网_爬取新闻详情(源码)_一蓑烟雨任平生
废话不多说直接上代码今天要倒霉的网站是全国农业信息网import requestsimport pymysqlfrom bs4 import BeautifulSoup # 用来解析网页import uuidimport timeurl = "http://www.agri.cn/V20/ZX/qgxxlb_1"headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KH原创 2020-11-11 20:14:41 · 1251 阅读 · 5 评论 -
惠农网_爬取二级网页内容(源码)_一蓑烟雨任平生
废话不多说,直接上代码今天倒霉的网站是惠农网供应大厅import requestsimport pymysqlfrom bs4 import BeautifulSoup # 用来解析网页from fake_useragent import UserAgentimport uuidimport timecookk = { 'Cookie': 'sessionId=S_0KHA8RH66NM124OL; Hm_lvt_91cf34f62b9bedb16460ca36cf192f4c=原创 2020-11-11 20:07:17 · 1536 阅读 · 7 评论 -
惠农网_破译反爬虫_使用代理IP爬取数据(源码)_一蓑烟雨任平生
费话不多说直接上代码今天要倒霉的网站是www.cnhnb.comimport requestsfrom bs4 import BeautifulSoup # 用来解析网页import uuidimport pymysqlimport time # 导入时间隔import randomfrom fake_useragent import UserAgentcookk = { 'Cookie': 'sessionId=S_0KHA8RH66NM124OL; Hm_lvt_91cf原创 2020-11-11 20:03:11 · 1679 阅读 · 4 评论 -
用XPath一分钟上手爬虫,良心之作__一蓑烟雨任平生
XPath爬取网站信息之前一直使用BeautifulSoup 爬取各种网站数据下午研究了下XPath,只能说太牛B会者不难,难者不会,你会爱上XPath废话不多说,直接上源码# encoding=utf-8import requestsfrom bs4 import BeautifulSoup # 用来解析网页import uuidimport pymysqlimport time # 导入时间隔import datetimeimport threadingfrom lxml原创 2020-11-04 17:36:37 · 486 阅读 · 1 评论