python 程序断开

import sys for i in range(100): print(i) if i == 50: sys.exit(1)

2019-04-09 18:14:19

阅读数 99

评论数 0

pymysql检查是否断开, 断开重连

db.ping(reconnect=True) cur.execute(sql) db.commit()

2019-04-09 09:39:55

阅读数 784

评论数 0

linux 文件转码

一般转换编码都是用iconv命令来转换,命令格式如下 $iconv -f gb18030 -t utf-8 file1.txt > file2.txt 说实话这个命令不好使,一方面容易重复转换,另一方面不支持通配符,无法成批转换,文件少了还好说,要是一大堆文件岂不是要累死? ...

2019-03-29 16:09:48

阅读数 65

评论数 0

pymongo

https://blog.csdn.net/wsp_1138886114/article/details/80402039

2019-03-20 10:01:27

阅读数 11

评论数 0

pymongo的基本使用

import pymongo mongo_url1 = "*.*.*.*:27017" client = pymongo.MongoClient(mongo_url1) db1 = client['minganci'] col1 = db1['mgctj'] # 查询一个 ...

2019-03-20 09:58:35

阅读数 20

评论数 0

遍历文件夹名和文件夹中的文件名

import os path = '/home/guanpg/桌面/Spider/Duokan8' for filedir in os.listdir(path): '''遍历路径下的文件夹名称 ''' file_path = path + '/' + filedir ...

2019-03-18 15:36:35

阅读数 12

评论数 0

ubuntu16.04中安装google chrome

第一种方式: 1、在ubuntu中启动终端 2、在终端中,输入以下命令: sudo wget http://www.linuxidc.com/files/repo/google-chrome.list -P /etc/apt/sources.list.d/ 将下载源加入到系统的源列表。命令...

2018-12-06 14:53:12

阅读数 19

评论数 0

验证码识别

一, 简单验证码识别,tesserocr import tesserocr from PIL import Image # image = Image.open('CheckCode2.jpg') # image 对象的convert()方法参数传入L, 即可将图片转化为灰度图像 image ...

2018-10-30 15:49:11

阅读数 38

评论数 0

滑动验证码

# encoding=utf8 from time import sleep from selenium import webdriver from selenium.webdriver import ActionChains from selenium.webdriver.common.by...

2018-10-30 15:47:17

阅读数 56

评论数 0

mysql更改字段内容

2018-09-06 09:45:06

阅读数 332

评论数 0

绕过SSL证书验证

import requests import logging # verify参数控制是否检查证书(默认是ture),通过捕获警告到日志的方式忽略警告 logging.captureWarnings(True) response = requests.get ('https://www.1230...

2018-08-08 10:10:25

阅读数 547

评论数 0

scrapy设置问题

一, 并发    并发性是并行处理的请求数。 存在全局限制和每个域限制。Scrapy中默认的全局并发限制不适合并行爬行许多不同的域,因此您需要增加它。 增加多少将取决于您的爬虫有多少CPU可用。 一个好的起点是100,但找出最好的方法是通过做一些试验并确定Scrapy过程在哪些并发情况下使CPU受...

2018-06-15 14:43:48

阅读数 843

评论数 2

response.follow作为创建Request对象

import scrapy class QuotesSpider(scrapy.Spider): name = "quotes" start_urls = [ 'http://quotes.toscrape.com/page/...

2018-06-01 15:51:40

阅读数 266

评论数 0

使用urljoin()方法构建完整的绝对URL

import scrapy class QuotesSpider(scrapy.Spider): name = "quotes" start_urls = [ 'http://quotes.toscrape.com/page/...

2018-06-01 15:30:37

阅读数 6659

评论数 0

提示
确定要删除当前文章?
取消 删除