Django的url路由系统简介 1.创建项目时的初始化值from django.conf.urls import urlfrom django.contrib import adminurlpatterns = [ url(r'^admin/', admin.site.urls),]2.创建多个app时可以使用include()函数完成分流from django.con...
python中第三方库redis.py简介 1.几种连接方式介绍"""Redis简介:这是一个基于内存的高效的键值型非关系型数据库,存取效率极高,而且支持多种存储数据结构,使用也比较简单。python中提供连接redis的第三方库redis.py。在这个库中有两个类Redis和StrictRedis来实现Redis的命令操作。Redis是StrictRedis的子类,主要功能是向后兼容旧版本库里...
python中sys模块的argv """笨办法学python,启动时在命令行中python 脚本文件名 filename"""from sys import argv# argv - 命令行参数; argv[0]是脚本路径名python,sys.argv[0]表示脚本路径名script, filename = argv # 脚本和文件名称print("We're going to erase %r." ...
Django中间件的应用 在Django中,中间件可以为我们对所有请求或一部分请求做批量处理MIDDLEWARE = [ 'django.middleware.security.SecurityMiddleware', 'django.contrib.sessions.middleware.SessionMiddleware', 'django.middleware.comm...
Ajax异步数据抓取 1.简介 1 有时候我们在用requests抓取页面的时候,得到的结果可能和在浏览器中看到的不一样,在浏览 2 器中可以看到正常显示的页面数据,但是使用requests得到的结果并没有。这是因为requests获取的 3 都是原始的HTML文档,而浏览器中的页面则是经过JavaScript处理数据后生成的结果,这些数据的 4 来源有多种,可能是通过ajax加载的,可能...
python自带的urllib使用 1.urllib中request构建完整请求"""request构建完整请求"""from urllib import request# Request封装urlreq = request.Request("https://python.org")# 发起请求并保存请求结果res = request.urlopen(req)# 打印响应信息...
python中pyquery库的css选择器实战解析 1.pyquery部分选择器解释"""pyquery的CSS选择器方法"""from pyquery import PyQueryhtml = """<div id="container"><table class="tablelist" cellpadding="0" cellspacing="0"> <tr ...
python第三方库requests 1.请求分析"""requests库的应用。requests是比python内置urllib库更好的http请求库"""import requestsfrom requests.models import Responseres = requests.get("https://www.baidu.com/") # 此处可以换成post,delete,...
tesseract图片识别库的简单操作 https://digi.bib.uni-mannheim.de/tesseract/ 下载连接中有dev的是分支,稳妥选择没有dev的4.0最新版本解压到D\E盘下 一直next安装,选择安装到 E:\tesseract\Tesseract-OCR设置系统路径 变量名|TESSDATA_PRE...
scrapy爬虫框架的分类下载和异步下载到数据库 1.爬虫项目实战之分类下载宝马车图片地址https://github.com/yangyu57587720/bmw2.爬虫项目实战之异步下载简书数据到MySQL数据库https://github.com/yangyu57587720/jianshu转载于:https://www.cnblogs.com/Guishuzhe/p/9887729.h...
Python下selenium的实战和普通爬虫的对比 1.普通爬取数据"""普通爬取数据爬虫,只要有反爬,cookie就不是很稳定。并不利于数据爬取"""import requestsimport refrom lxml import etreeheaders = { "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebK...
Python爬虫之queue线程安全实战 1.普通下载import requestsimport osimport refrom lxml import etreefrom urllib import requestdef get_detail(url): headers = { "User-Agent": "Mozilla/5.0 (Windows NT 6....
Python下selenium的简单用法 1.学习之前请下载chromedriver等之类的浏览器插件"""动态渲染页面页面抓取。JavaScript除了可以Ajax直接获取数据之外,还可以通过计算生成,加密参数等形式来更安全的获取数据。这些通过特别处理的数据我们很难找出规律直接Ajax去获取。为了解决这些问题,我们可以直接使用模拟浏览器运行的方式来请求数据,这样可以看到的是什么,抓取的源码就是什...
threading多线程的生产者消费者模型 理解此篇请先看http://www.cnblogs.com/haiyan123/p/7445584.html"""多线程下生产者消费者模型。定义:在同一进程,同一主线程下,采用多线程完成多个任务的同时,各自数据保持干净整洁。即、花最少的时间完成最多的任务"""import threadingimport randomimport time# 初始化金额...
Python下MongoDB的简单应用 1.傻瓜安装失败请看下面方法1.mongodb下载zip文件2.解压到D或者E盘3.创建mangodb文件夹,把mongodb自创建文件夹中的所有文件剪切到mongodb4.此时目录结构D|E:\mongodb\bin等等文件5.在D|E:\mongodb目录下创建data和log文件夹,并在log中创建文件mongod.log6.在D|E:\mongod...
Python爬虫re解析实战 1.如下内容,欲练此功,必先....正则"""古诗文爬取"""import requestsimport redef parse_page(url): rep = requests.get( url=url, headers={"user-agent": "Mozilla/5.0 (Windows NT 6.1...
Python中csv和json文件操作 1.csv的存储操作"""csv两种写入操作csv就是字符分隔的纯文本,字段间的分隔符是其他字符或字符串csv写入之后的文件可以直接Excel打开"""import csvdef write_csv_demo(): headers = ["username", "age", "height"] values = { ...
Python爬虫bs4解析实战 1.常用方法from bs4 import BeautifulSouphtml = """<table class="tablelist" cellpadding="0" cellspacing="0"> <tr class="h"> <td class="l" width="374">职位名称<...
Pyhton全栈的知识点(6) 1.MySQL数据库 - 引擎: - innodb - 支持事务 - 锁 - 行锁 - 表锁 - 示例: - 终端: begin; 加锁 select xx from xx fo...