自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

转载 CentOS下Redis的安装

安装Redis需要知道自己需要哪个版本,有针对性的安装,比如如果需要redis GEO这个地理集合的特性,那么redis版本就不能低于3.2版本,由于这个特性是3.2版本才有的。另外需要注意的是,Redis约定次版本号(即第一个小数点后的数字)为偶数的版本是稳定版(如2.8版、3.0版),奇数版本是非稳定版(如2.7版、2.9版),生产环境下一般需要使用稳定版本。下载安装包wget ht...

2018-10-22 18:05:20 145

原创 scrapy与scrapy-redis

                          Scarp框架需求 获取网页的url 下载网页内容(Downloader下载器) 定位元素位置, 获取特定的信息(Spiders 蜘蛛) 存储信息(ItemPipeline, 一条一条从管里走) 队列存储(scheduler 调度器)首先, spiders 给我们一个初始的URL,  spider获取列表页内的详情页的url....

2018-08-29 20:22:08 1624

原创 笔记

 1 bytes转换成python对象  (json.loads(变量))2 post请求  创建访问对象  request.Request()3  转换成str   parse.urlencode(变量).encode('utf-8')4 headers头正则    ^(.*?):(.*)   ($1):($2),———————————————————————————————...

2018-08-29 20:13:03 151

转载 scrapy返回携带参数(yield scrapy.Request(item['url'], meta={'item': item}, callback=self.parse_detail))

name = 'doubanzufang'start_urls = ['https://www.douban.com/group/tianhezufang/discussion?start=50']def parse(self, response):    item = ZufangItem()    node_list = response.css(".olt>tr>td....

2018-08-26 18:25:54 8716 3

原创 def_2mysql(腾讯)

import pymysqlclass MysqlHelper(object): def __init__(self): self.db = pymysql.connect(host='127.0.0.1', port=3306, user='root', password='123456', database='py1011', charset='utf8') ...

2018-08-19 16:04:39 153

原创 腾讯招聘(简单封装)

import requests,osfrom lxml import etreefrom def2_mysql import MysqlHelpermyhelper =MysqlHelper()sql = 'INSERT INTO tengxun (one_title, one_didian, one_leibie, one_renshu, one_zhize, tow_yaoqiu)...

2018-08-19 16:02:52 208

原创 我爱我家(抓取)

import requests,refrom lxml import etreeimport mysql_test# 构建代理proxy = { 'http' : 'http://alice:123456@120.78.166.84:6666', 'https' : 'http://alice:123456@120.78.166.84:6666'}headers={...

2018-08-17 21:43:22 834

原创 链家抓取

import requestsfrom lxml import etreeimport mysql_test# 构建代理proxy = { 'http' : 'http://alice:123456@120.78.166.84:6666', 'https' : 'http://alice:123456@120.78.166.84:6666'}headers={ ...

2018-08-17 17:57:30 470

原创 喜马拉雅单个无版权下载

import requests,re,json,osfrom urllib import request# 构建代理proxy = { 'http' : 'http://alice:123456@120.78.166.84:6666', 'https' : 'http://alice:123456@120.78.166.84:6666'}headers={ ...

2018-08-17 15:59:48 342

原创 今日头条图片

import requests,json,re,osfrom urllib import requestheaders={ "user-agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1...

2018-08-16 22:57:18 662

原创 request(cookie).get与post (可当包使用)

from urllib import request, parsefrom urllib.error import HTTPError, URLErrorfrom http import cookiejar# 创建session类,调用前实例化class session(object): def __init__(self): # 通过对象保存cookie ...

2018-08-16 10:36:26 1157

原创 Mysql连接数据库(当包使用)

import pymysql# mysql_coon 主要的功能就是, 将链接数据库的操作变成只连接一次#class mysql_conn(object): # 魔术方法, 初始化, 构造函数 优先执行此函数 def __init__(self): #ip地址 #用户名 #密码 #端口号 ...

2018-08-16 08:41:25 246

原创 雪球(初步)

import random,json,pymysqlfrom mysql_test import mysql_connimport requestsa = -1count_=10for i in range(4): url='https://xueqiu.com/v4/statuses/public_timeline_by_category.json?since_id=-1&...

2018-08-16 08:39:14 259

原创 封装(包含cookie)(from tuozhan_all import session)

from urllib import request, parsefrom urllib.error import HTTPError, URLErrorfrom http import cookiejar# 创建session类,调用前实例化class session(object): def __init__(self): # 通过对象保存cookie ...

2018-08-14 22:51:43 254

原创 有道翻译

from day1.fengzhuang_all import post,getimport time,randomimport hashlib,jsonfrom urllib import requestdef md5_my(need_str): # 创建对象 md5_o = hashlib.md5() # 转换bytes sign_bytes = n...

2018-08-14 21:20:52 234

转载 cookie与session

session机制: session机制是一种服务器端的机制,服务器使用一种类似于散列表的结构(也可能就是使用散列表)来保存信息。cookie机制: cookie机制是一种客户端的机制,浏览器访问服务端时会生成相应的cookie,cookie的使用是由浏览器按照一定的原则在后台自动发送给服务器的cookie与session区别 1、cookie数据存放在客户的浏览器上...

2018-08-13 21:31:14 98

原创 Blog operation(get;post封装)(day1.fengzhuang_all)

封装from urllib import request,parse from urllib.error import HTTPError,URLErrordef get(url,headers=None): return url_requests(url,headers=headers)def post(url,data,headers=None): retur...

2018-08-13 21:23:19 176

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除