发送 GET 请求
import requests
headers = {
‘user-agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36’,
‘cookie’: ‘some_cookie’
}
response = requests.request(“GET”, url, headers=headers)
发送 POST 请求
import requests
payload={}
files=[]
headers = {
‘user-agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36’,
‘cookie’: ‘some_cookie’
}
response = requests.request(“POST”, url, headers=headers, data=payload, files=files)
根据某些条件循环请求,比如根据生成的日期
def get_data(mydate):
date_list = create_assist_date(mydate)
url = “https://test.test”
files=[]
headers = {
‘user-agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36’,
‘cookie’: ‘’
}
for d in date_list:
payload={‘p’: ‘10’,
‘day’: d,
‘nodeid’: ‘1’,
‘t’: ‘itemsbydate’,
‘c’: ‘node’}
for i in range(1, 100):
payload[‘p’] = str(i)
print(“get data of %s in page %s” % (d, str(i)))
response = requests.request(“POST”, url, headers=headers, data=payload, files=files)
items = response.json()[‘data’][‘items’]
if items:
save_data(items, d)
else:
break
Python 操作各种数据库
操作 Redis
连接 Redis
import redis
def redis_conn_pool():
pool = redis.ConnectionPool(host=‘localhost’, port=6379, decode_responses=True)
rd = redis.Redis(connection_pool=pool)
return rd
写入 Redis
from redis_conn import redis_conn_pool
rd = redis_conn_pool()
rd.set(‘test_data’, ‘mytest’)
操作 MongoDB
连接 MongoDB
from pymongo import MongoClient
conn = MongoClient(“mongodb://%s:%s@ipaddress:49974/mydb” % (‘username’, ‘password’))
db = conn.mydb
mongo_collection = db.mydata
批量插入数据
res = requests.get(url, params=query).json()
commentList = res[‘data’][‘commentList’]
mongo_collection.insert_many(commentList)
操作 MySQL
连接 MySQL
import MySQLdb
# 打开数据库连接
db = MySQLdb.connect(“localhost”, “testuser”, “test123”, “TESTDB”, charset=‘utf8’ )
# 使用cursor()方法获取操作游标
cursor = db.cursor()
执行 SQL 语句
# 使用 execute 方法执行 SQL 语句
cursor.execute(“SELECT VERSION()”)
# 使用 fetchone() 方法获取一条数据
data = cursor.fetchone()
print "Database version : %s " % data
# 关闭数据库连接
db.close()
Output:
Database version : 5.0.45
本地文件整理
整理文件涉及需求的比较多,这里分享的是将本地多个 CSV 文件整合成一个文件
import pandas as pd
import os
df_list = []
for i in os.listdir():
if “csv” in i:
day = i.split(‘.’)[0].split(‘_’)[-1]
df = pd.read_csv(i)
df[‘day’] = day
df_list.append(df)
df = pd.concat(df_list, axis=0)
df.to_csv(“total.txt”, index=0)
多线程代码
多线程也有很多实现方式,我们选择自己最为熟悉顺手的方式即可
import threading
import time
exitFlag = 0
class myThread (threading.Thread):
def init(self, threadID, name, delay):
threading.Thread.init(self)
self.threadID = threadID
self.name = name
self.delay = delay
def run(self):
print (“开始线程:” + self.name)
print_time(self.name, self.delay, 5)
print (“退出线程:” + self.name)
def print_time(threadName, delay, counter):
while counter:
if exitFlag:
threadName.exit()
time.sleep(delay)
print (“%s: %s” % (threadName, time.ctime(time.time())))
counter -= 1
# 创建新线程
thread1 = myThread(1, “Thread-1”, 1)
thread2 = myThread(2, “Thread-2”, 2)
# 开启新线程
thread1.start()
thread2.start()
thread1.join()
thread2.join()
print (“退出主线程”)
异步编程代码
异步爬取网站
import asyncio
import aiohttp
import aiofiles
async def get_html(session, url):
try:
async with session.get(url=url, timeout=8) as resp:
if not resp.status // 100 == 2:
print(resp.status)
print(“爬取”, url, “出现错误”)
else:
resp.encoding = ‘utf-8’
text = await resp.text()
return text
except Exception as e:
print(“出现错误”, e)
await get_html(session, url)
使用异步请求之后,对应的文件保存也需要使用异步,即是一处异步,处处异步
async def download(title_list, content_list):
async with aiofiles.open(‘{}.txt’.format(title_list[0]), ‘a’,
encoding=‘utf-8’) as f:
await f.write(‘{}’.format(str(content_list)))
以上都是平时用的最多的代码片段,希望对你有所帮助
好了,这就是今天分享的全部内容,喜欢就点个赞+在看吧~
有兴趣的同学可以火速加入我们的星球
3周零基础入门提供10节课程
感谢每一个认真阅读我文章的人,看着粉丝一路的上涨和关注,礼尚往来总是要有的:
① 2000多本Python电子书(主流和经典的书籍应该都有了)
② Python标准库资料(最全中文版)
③ 项目源码(四五十个有趣且经典的练手项目及源码)
④ Python基础入门、爬虫、web开发、大数据分析方面的视频(适合小白学习)
⑤ Python学习路线图(告别不入流的学习)
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!