自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 Python-ip代理

import requestsurl = "http://www.httpbin.org/ip"headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) ' }# 设置代理ip 反爬proxy ={ "http":"36.248.129.239:9999"}response=requests.get(url,he...

2020-04-30 22:05:14 405

原创 Python——登录后获取cookie访问页面

import requestsurl ="https://kyfw.12306.cn/otn/view/index.html"# 网址首页https://kyfw.12306.cn/otn/view/index.html 的cookieheaders = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) ', ...

2020-04-30 22:04:32 2527

原创 python 发送POST请求

import requests url = "https://www.lagou.com/jobs/positionAjax.json?city=%E6%B7%B1%E5%9C%B3&needAddtionalResult=false&isSchoolJob=0" headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko

2020-12-09 15:20:15 140

原创 python 发送GET请求

import requests kw = {'wd':'python'} headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"} # params 接收一个字典或者字符串的查询参数,字典类型自动转换为url编码,不需要urlencode() response = re

2020-12-09 15:11:03 842

原创 2020-10-6 Python cookie请求页面

import requestsheader = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.75 Safari/537.36', # 'Cookie': 'anonymid=k2oc3i563739.157310916 5-b85a-c47b678c6576a9; taihe_bi_sdk_sessio

2020-10-06 22:56:28 184

原创 2020-10-6 python session请求登录页面

import requestssession = requests.session()post_url = 'http://www.renren.com/PLogin.do'post_data = { 'email': '1111', 'password': '111111'}header = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, l

2020-10-06 22:55:08 212

原创 Python如何发送邮箱演示

# # smtplib 用于邮件的发信动作# import smtplib# from email.mime.text import MIMEText# # email 用于构建邮件内容## # 发信方的信息:发信邮箱,QQ 邮箱授权码# from_addr = '1334325679@qq.com'# password = 'cfyrgophermjbahc'## # 收信方邮箱# to_addr = '1334325679@qq.com'## # 发信服务器# smtp_ser

2020-10-05 16:52:08 155

原创 常见ajax方法

1.$.get(url,params,callback,dataType返回值类型) 请求数据2.$.post(url,params,callback,dataType返回值类型) 提交数据3.$.getJSON(url,params,callback) 请求获取json数据时使用4.$.ajax({url,params,dataType,success,error,同步异步});5.$....

2020-05-03 23:32:13 107

原创 Python——处理ssl不信任证书

import requestsurl = "https://inv-veri.chinatax.gov.cn"# 处理ssl不信任证书 verify=Falseres =requests.get(url,verify=False)print(res.text)

2020-04-30 22:03:38 570

原创 requests-解决乱码问题

import requests # 第三方请求库url = "http://www.baidu.com"# 请求头headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) ' }# 请求-响应response = requests.get(url,headers=headers)# print(response...

2020-04-30 21:08:21 183

原创 爬虫百度贴吧分页练习

# 百度贴吧分页爬取练习import urllib.request # 请求库import urllib.parse # 解析import random # 随即库# 封装三个请求头,由于防爬headers = [{"User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like G...

2020-04-28 22:13:53 227

原创 urllib.parse的使用

import urllib.requestimport urllib.parse #解析# url拼接url = "https://www.baidu.com/s?"name = {"wd":"校花"}new_name = urllib.parse.urlencode(name)new_url = url + new_nameprint(new_url)# 请求头header...

2020-04-28 21:38:08 566

原创 python自带的urllib.request库的入门初探

# python自带请求库import urllib.request# 访问链接地址url = "http://www.baidu.com"# 模仿浏览器请求headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) ' 'AppleWebKit/537.36(KHTML...

2020-04-28 21:08:00 258

原创 csv的简单实用

import csv #引用# 写入csv_file = open("demo.csv","w",newline="",encoding="utf-8")#调用open()函数打开csv文件writer = csv.writer(csv_file) # 用csv.writer()函数创建一个writer对象writer.writerow(['电影','豆瓣评分']) #在csv...

2020-04-28 20:51:36 188

原创 openpyxl的简单使用

# 需要安装 pip install openpyxl import openpyxl #引用openpyxl wb = openpyxl.Workbook() #创建工作簿sheet = wb.active #创建工作表sheet.title = "new title" #工作表命名sheet['A1'] = "姓名" ...

2020-04-28 20:49:57 171

原创 BeautifulSoup简单实用

# 需要安装 pip install BeautifulSoup4import requests # 调用requests库from bs4 import BeautifulSoup # 调用BeautifulSoup库res =requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/sp...

2020-04-28 20:48:40 193

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除