排列

''' Implement next permutation, which rearranges numbers into the lexicographically next greater permutation of numbers. If such arrangement is not...

2018-08-06 12:55:07

阅读数 51

评论数 0

2018.07.18

#获取昨天的日期 from datetime import datetime,timedelta yesterday=datetime.now()-timedelta(days=1) layout=yesterday.strftime('%Y-%m-%d') print(layout) #...

2018-07-18 19:35:37

阅读数 505

评论数 0

sorted高阶函数

sorted(iterable,key,reverse) 作用:实现对可迭代对象进行排序 参数一:可迭代对象 参数二:我们可以使用元素的属性或者函数作为key,来进行比较 参数三:排序的规则,默认为升序【False】,reverse=True 降序 reverse=False 升序 注意:返回的...

2018-07-18 17:55:25

阅读数 491

评论数 0

闭包,装饰器,匿名函数,递归函数简单运用

#内部函数可以使用外部函数变量的行为,就叫闭包。 from functools import reduce def outer(x): print('不能使用inner的参数。。。。') def inner(y): print(x+y) inner(x...

2018-07-10 21:47:18

阅读数 504

评论数 0

了解scrapy

安装:下载Twisted           https://www.lfd.uci.edu/~gohlke/pythonlibs/        pip install twisted........        pip install  scrapy import scrapy ''' ...

2018-07-10 19:24:27

阅读数 532

评论数 0

datatine,time模块

from datetime import datetime,timedelta import time #datetime.datetime.now():获取系统当前时间 print(datetime.now()) #未来时间 print(datetime.now()+timedelta(d...

2018-07-08 21:12:04

阅读数 491

评论数 0

抓取中国最好大学排名-社会声誉排名2018(request,bs4,csv)

import csv import requests from bs4 import BeautifulSoup #请求头 headers={'User-Agent':"Opera/9.80(WindowsNT6.1;U;en)Presto/2.8.131Version/11...

2018-07-07 14:50:10

阅读数 609

评论数 0

爬取广州链家二手房并写入csv

知识点:多线程,读取csv,xpathimport json import csv import requests import threading import lxml import lxml.etree #递归锁 rLock=threading.RLock() headers = { ...

2018-07-06 21:12:25

阅读数 756

评论数 0

爬取51岗位(xpath的运用)

# coding:utf-8 import os import re import requests import lxml from lxml import etree #请求头 headers={"User-Agent":"Mozilla...

2018-07-05 19:47:06

阅读数 621

评论数 0

爬取腾讯招聘Python岗位的信息(BS4)

import requests from bs4 import BeautifulSoup from math import ceil headers={'User-Agent':'Mozilla/5.0 (Linux; Android 6.'} #获取岗位页数 def getJobPage(...

2018-07-04 20:23:39

阅读数 699

评论数 0

有道山寨版

import requests #代理IP proxies = {'http': '111.231.115.150:8888'} #请求头 headers={"User-Agent":"Mozilla/5.0 (Windows NT 6.1;...

2018-07-03 16:20:18

阅读数 516

评论数 0

爬取拉勾网

import json import requests import urllib.request from urllib import parse import re def getTotalPage(job,city): #url 编码 city=urllib.parse...

2018-07-03 11:55:34

阅读数 546

评论数 0

selenium元素定位

#导入模块 import time from selenium import webdriver #打开浏览器 driver=webdriver.Chrome() #全屏 driver.maximize_window() #打开网页 driver.get('http://www.baidu.c...

2018-06-29 14:30:08

阅读数 771

评论数 0

自动评价

#导入模块 import time from selenium import webdriver #打开浏览器 from selenium.webdriver.common.by import By driver=webdriver.Chrome() driver.maximize_windo...

2018-06-29 14:25:34

阅读数 1221

评论数 0

代理IP,模拟登陆,request.get设置cookie

import requests headers = { 'Host': 'https://blog.csdn.net/weixin_42141853', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:43.0) Gec...

2018-06-26 22:01:58

阅读数 2030

评论数 0

HelloWorld

#导入flask类库 from flask import Flask,current_app,g,request,session #创建应用实例 app=Flask(__name__) #绑定app和创建视图函数 @app.route('/') def index(): #内置对象 ...

2018-06-25 00:10:26

阅读数 1495

评论数 0

爬取淘宝图片

import os import re import urllib.request import requests def getHtml(url,headers): # 代理设置 proxy = urllib.request.ProxyHandler({'http': '1...

2018-06-24 17:00:35

阅读数 1994

评论数 1

爬取博客首页,并将所有博客文章写入文件

import urllib.request import re import time def getHtml(url): headers = ('User-Agent', "Opera/9.80(WindowsNT6.1;U;en)Presto/2.8.131Ve...

2018-06-23 22:35:22

阅读数 1203

评论数 0

url.request模拟浏览器和中间代理服务器

import random import urllib.request import time #使用代理服务器进行信息爬取,很好解决IP限制的问题 #http://www.xicidaili.com/ def proxyServer(url,proxy_addr,headers): p...

2018-06-23 18:47:05

阅读数 1634

评论数 0

b站弹幕

谷歌浏览器:import requests import time cookie={'Cookie':'l=v; LIVE_BUVID=AUTO9115296677131525; Hm_lvt_8a6e55dbd2870f0f5bc9194cddf32a02=1529667823,1529678...

2018-06-23 17:09:23

阅读数 1588

评论数 0

提示
确定要删除当前文章?
取消 删除
关闭
关闭