![](https://img-blog.csdnimg.cn/20190918140213434.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
Python笔记
简洁胜于复杂,复杂胜于凌乱,扁平胜于嵌套,间隔胜于紧凑,不要包容所有错误,除非你确定需要这样做。
做也许好过不做,但不假思索就动手还不如不做,如果你无法向人描述你的方案,那肯定不是一个好方案;反之亦然。
Narutolxy
在代码的梦境中,智慧凝聚成诗篇,每一行都镌刻着时间的印记,超越年龄的界限。穿越职场的风云变幻,我依旧保持着对编程的挚爱,如璀璨星辰,在夜空中闪耀不息。人工智能的浪潮为我揭开了新知的大门,赋予我翱翔技术天际的翅膀。在它的赋能下,我信心倍增,新知如潺潺流水迅速汇入我的智慧之海,激励着我在探索的道路上奋勇前行。我怀揣梦想,矢志不渝,深信只要持之以恒地追求,便能越过一切阻碍,抵达心中的远方。让我以经历为墨,以时间为纸,细细描绘编程的绚烂世界。编程不仅是一门精湛的技艺,更是一种生活的艺术,是我对未来充满憧憬与热爱的最好诠释。与君共勉,共同追寻未来的无限可能。
展开
-
Fastapi项目初体验20230919
【代码】Fastapi项目初体验20230919。原创 2023-09-19 16:54:55 · 178 阅读 · 0 评论 -
linux 定时任务的调试20230919
linux定时任务的调试原创 2023-09-19 13:50:44 · 185 阅读 · 0 评论 -
python包管理anaconda良好的解决方案20230913
Anaconda 的安装可以用再有网络的centos8上下载wget https://repo.anaconda.com/archive/Anaconda3-2023.03-1-Linux-x86_64.sh,然后到没有网络的centos8上sh Anaconda3-2023.03-1-Linux-x86_64.sh进行安装。但是,如果你的机器上有多个用户,并且你希望每个用户管理自己的环境,那么建议每个用户在自己的账户下分别安装 conda。当然还有我因为一时糊涂删除过普通用户下的local里面的pip。原创 2023-09-13 18:56:03 · 90 阅读 · 0 评论 -
linux环境下Django项目PyMySQL访问mysql数据库
问题:linux环境下Django项目PyMySQL访问mysql数据库如何访问数据库?原创 2023-06-12 17:59:01 · 235 阅读 · 0 评论 -
使用Anaconda3结合vscode来实现django项目的建立(绝好的介绍)20230608
详细地解释如何在VSCode中使用Anaconda3创建和运行Django项目原创 2023-06-08 15:37:41 · 581 阅读 · 0 评论 -
pythonORM操作数据库01_20230301
python orm 操作数据库步骤原创 2023-03-01 09:59:36 · 175 阅读 · 0 评论 -
Python的应用场景
原创 2020-09-10 15:36:58 · 163 阅读 · 0 评论 -
Python中的Redis操作
redispy安装及连接pip install redisRedis的配置文件/etc/redis/redis.conf当redis作为守护进程运行的时候,它会写一个 pid 到 /var/run/redis.pid 文件里面。daemonize no监听端口号,默认为 6379,如果你设为 0 ,redis 将不在 socket 上监听任何客户端连接。port 6379设置数据库的数目。databases 16根据给定的时间间隔和写入次数将数据保存到磁盘下面的例子的意思是:原创 2020-07-13 09:17:31 · 457 阅读 · 0 评论 -
Scrapy案例爬取图书网信息
创建项目scrapy startproject book_info 创建爬虫cd book_info scrapy genspider cl_book suning.com 爬虫文件编写cl_book.py# -*- coding: utf-8 -*-import scrapyimport refrom ..items import BookInfoItemfrom bs4 import BeautifulSoup# 为避免数据错乱,引用深拷贝from copy imp原创 2020-07-08 16:05:47 · 355 阅读 · 0 评论 -
Scrapy模拟登录小记
Scrapy登录方式方式一:直接携带cookie方式二:找到发送post请求的URL地址,带上信息,发送请求人人练习创建爬虫项目scrapy startproject renrenrenrenlogin.py# -*- coding: utf-8 -*-import scrapyfrom ..settings import DEFAULT_REQUEST_HEADERSclass RenrenloginSpider(scrapy.Spider): name = 're原创 2020-07-07 16:28:00 · 988 阅读 · 0 评论 -
python中scrapy shell的使用和自定义配置文件
scrapy shellScrapy shell是⼀个交互终端,我们可以在未启动spider的情况下,尝试及调试代码,也可以⽤来测试XPath表达式使⽤⽅法:scrapy shell 需要调试的网站>>> shelp()[s] Available Scrapy objects:[s] scrapy scrapy module (contains scrapy.Request, scrapy.Selector, etc)[s] crawler <原创 2020-06-29 16:58:41 · 234 阅读 · 0 评论 -
pyhon之scrapy框架练习
scrapy爬虫思路开始创建项目创建爬虫设置爬虫name设置爬虫allowe_domain设置爬虫starts_urls设置爬虫log实现数据方法提取pipline保存数据结束练习爬取某腾招聘网站岗位详情信息思路先针对某一页遍历获取每个职位的详情页url,之后再针对详情页发起请求获取响应中详情的具体内容。以下信息,均通过《检查》Network->XHR->Request headers->referer:...原创 2020-06-29 10:24:56 · 281 阅读 · 0 评论 -
python之Srcapy框架浅谈
Scrapy介绍Scrapy是⼀个为了爬取⽹站数据,提取结构性数据⽽编写的应⽤框架,让爬虫更快,更强大。用更少代码,实现更多灵活的功能。内部封装了Twisted(内部源码采用了闭包)异步网络框架。框架和模块的区别框架是软件框架是项目软件开发过程中提取特定领域软件的共性部分形成的体系结构,不同领域的软件项目有着不同的框架类型。框架不是现成可用的应用系统,而是一个半成品,是一个提供了诸多服务,供开发人员进行二次开发,实现具体功能的应用系统。模块是指的一段能够实现某个有价值目标的的成员代码段,这样的东西,原创 2020-06-22 10:25:30 · 627 阅读 · 0 评论 -
Python多线程爬虫下载图片实例
#单线程下载实例# https://www.doutula.com/?page=0 第一页# https://www.doutula.com/article/list/?page=2 第二页# https://www.doutula.com/article/list/?page=3import requestsfrom lxml import etreefrom time import *def get_url_data(url): headers = {原创 2020-06-16 17:32:04 · 224 阅读 · 0 评论 -
Python中的多线程同步(线程锁,队列)
线程间的资源竞争#!/user/bin/env python#-*-coding utf-8-*-#@Time : 2020/6/158:44#@Author : GodSpeed#@File : 线程的资源竞争.py#@Software : PyCharmimport threadingimport timeimport dis #查看Python代码在cpu的运行轨迹##print(dis.dis(fun))原创 2020-06-15 12:34:59 · 475 阅读 · 0 评论 -
python之jspy和selenium浅谈
js2py简介js2py安装库现在写爬虫很多的网站都开始用js 加密技术了,所以这个库必须要学的。Python中执⾏JS代码,通常两个库:js2py,pyexecjsjs2py是纯python实现的库,⽤于在python中运⾏js代码,本质上是将js代码翻 译成python代码 js2py安装pip install js2pyimport js2pyjs2py.eval_js('console.log("hello python, I am js2py")')func_js = '''f原创 2020-05-26 17:33:57 · 604 阅读 · 0 评论 -
Python爬虫BeautifulSoup4小记
Beautiful Soup简介Beautiful Soup 是一个可以从HTML或XML文件中提取数据的网页信息提取库。Beautiful Soup可以自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。BeautifulSoup安装pip install lxmlpip install bs4bs4的对象种类tag : 标签NavigableString : 可原创 2020-05-21 17:30:27 · 504 阅读 · 0 评论 -
Python网络爬虫XPath的使用小栈
XPath简介XPath 是一门在 XML 文档中查找信息的语言。XPath 用于在 XML 文档中通过元素和属性进行导航。lxml是python中的⼀个包,这个包中包含了将html⽂本转成xml对象,和对对象执⾏xpath的功能。XPath工具的使用常用工具;chrome插件XPath HelperFirefox插件XPath Checkerchrome插件XPath Helper为例:需要的文件xpath-helper.crxxpath-helper.rarchrome浏览器原创 2020-05-20 20:51:44 · 331 阅读 · 0 评论 -
Python中的异常处理浅论
程序的异常在程序运行过程中,必可避免出现一些错误。异常的起因:一种是写程序不严谨考虑周全。一种是不可避免的异常,比如通讯函数在处理是,宿主设备没有网络资源,导致发送失败。如果不对异常进行捕获处理,异常以后的代码都不会执行。但是有一些小异常,不影响全局逻辑(比如爬虫爬到个别不和规格的(出乎意料的空)),所以需要捕获处理异常。异常的捕获处理# try格式一# try:# 代码块(可能出现错误的语句)# except:# 代码块(try的代码块执行异常之后的处理方式)# else原创 2020-05-15 12:12:02 · 150 阅读 · 0 评论 -
Python的re模块常用方法小练
flag匹配模式findall函数findall(pattern, string, flags=0) 作为re模块的三⼤搜索函数之⼀,findall()和match()、search()的不同之处在 于,前两者都是单值匹配,找到⼀个就忽略后⾯,直接返回不再查找了。⽽ findall是全⽂查找,它的返回值是⼀个匹配到的字符串的列表。这个列表没有 group()⽅法,没有start、end、span,更不是⼀个匹配对象,仅仅是个列表! 如果⼀项都没有匹配到那么返回⼀个空列表str='对方对方的<.原创 2020-05-14 17:11:25 · 271 阅读 · 0 评论 -
Python正则表达实战小栈
点表达式匹配.小数点可以匹配除了换行符\n外的任意一个字符实例1print(re.findall('ab.','abc1ababaabbcdother'))执行结果[‘abc’, ‘aba’, ‘abb’]实例2print(re.findall('\w\w....','ab专心致志vf悬梁刺股22勤能补拙33人定胜天1w临池学书2e破釜沉舟'))执行结果[‘ab专心致志’, ‘vf悬梁刺股’, ‘22勤能补拙’, ‘33人定原创 2020-05-14 14:01:31 · 146 阅读 · 0 评论 -
Python面向对象笔录(三)类的属性和方法
属性类属性,直接在类中定义的属性是类属性类属性分为共有类属性和私有类属性类的私有属性类的双下划线修饰的私有属性类的用装饰器转换的私有属性类的公共属性在类的开头且在其他类函数外部定义非双下划线开头的属性实例属性通过实例对象添加的属性属于实例属性class Person(): #类公共属性 class_str = 'Class str' __hide_cl_long = '__hide_cl_long' def __init__(self):原创 2020-05-13 01:25:52 · 159 阅读 · 0 评论 -
Python面向对象笔录(二)
继承继承是⾯向对象三⼤特性之⼀通过继承我们可以使⼀个类获取到其他类中的属性和⽅法在定义类时,可以在类名后⾯的括号中指定当前类的⽗类(超类、基类)继承提⾼了类的复⽤性。让类与类之间产⽣了关系。有了这个关系,才有了多态的特性class Person(): def __init__(self,name): print('Person __init__ 被调用') self.name = name def run(self): print原创 2020-05-11 01:42:55 · 137 阅读 · 0 评论 -
Python正则表达式的那些事(二、字符集匹配_重复匹配_ 位置匹配_非贪婪匹配)
预定义匹配字符集正则表达式中的⼀些表示⽅法,可以同时匹配某个预定义字符集中的任意⼀个 字符。⽐如,表达式\d可以匹配任意⼀个数字。虽然可以匹配其中任意字符, 但是只能是⼀个,不是多个。表达式匹配描述\d任意一个数字,0-9中的任意一个#re.match(r'哈利波特\d','哈利波特4').group()my_match_fun(r'哈利波特\d','哈利波特4'...原创 2020-05-08 17:03:56 · 396 阅读 · 0 评论 -
Python正则表达式的那些事(一.相关概念以及元字符的使用)
正则表达式的定义正则表达式是对字符串操作的⼀种逻辑公式,就是⽤事先定义好的⼀些特定字 符 、 及这些特定字符的组合,组成⼀个“规则字符串”,这个“规则字符 串”⽤来表达对字符串的⼀种过滤逻辑。正则表达式的应⽤场景表单验证(例如 : ⼿机号、邮箱、身份证… ) 爬⾍Python对正则表达式的支持普通字符匹配字⺟、数字、汉字、下划线、以及没有特殊定义的符号,都是"普通字符"。正则 表达式...原创 2020-05-08 12:19:53 · 290 阅读 · 0 评论 -
Python函数知识集锦(三)
Python函数的特有属性高阶函数 特点: 1.接收一个或多个函数作为参数; 2.将函数作为返回值返回. #求偶数def fun2(i): if i % 2 == 0: return True#求奇数数def fun3(i): if i % 2 != 0: return True#Higher ...原创 2020-04-29 17:35:26 · 147 阅读 · 0 评论 -
Python爬虫之request模块
Python爬虫请求模块urllib.request模块python2 :urllib2、urllibpython3 :把urllib和urllib2合并,urllib.requesturllib.request.urlopen(“⽹址”)作⽤ :向⽹站发起⼀个请求并获取响应字节流 = response.read()字符串 = response.read().decode(“utf-...原创 2020-04-30 16:03:59 · 670 阅读 · 0 评论 -
Python面向对象笔录(一)
Python面向对象概述Python从设计之初就已经是一门面向对象的语言,在Python中创建一个类和对象是很容易的。面向过程与面向对象面向过程程序设计面向过程的程序设计(Procedure-Oriented Programming,简记为POP)流水线式思维,好比精心设计好一条流水线,考虑周全什么条件下处理做什么事情。优点是:极大的降低了写程序的复杂度,顺序执行,堆叠代码。缺点是:一...原创 2020-04-30 13:32:41 · 306 阅读 · 0 评论 -
Python列表知识汇总
Python列表的使用创建列表#列表的创建#空列表---------------Start---------List_NULL = []print(type(List_NULL))#输出:<class 'list'>#空列表---------------End---------#数字列表---------------Start---------- List_NUM...原创 2020-04-19 21:48:03 · 166 阅读 · 0 评论 -
网络通讯协议与爬虫浅谈
网络通讯协议与爬虫浅谈网络通信三要素IP地址、端口号、协议IP地址IP地址的作用用来在网络中标记一台电脑,比如192.168.1.1;在本地局域网上是唯一的。IP地址查看windows:cmd->ipconfiglinux:ifconfig端口号端口号:用来唯一标识一个进程。每一个程序都要有一个端口号端口号就是一个十进制的整数。端口号的取值范围是:0到6553...原创 2020-04-26 00:34:52 · 806 阅读 · 0 评论