python基础
文章平均质量分 63
Snakin_ya
苍山负雪,明烛天南
展开
-
[Python]网络编程基础
客户端/服务器网络编程在服务器响应客户端请求之前,必须进行一些初步的设置流程来为之后的工作做准备。首先会创建一个通信端点,它能够使服务器监听请求。一旦一个通信端点已经建立,监听服务器就可以进入无限循环中,等待客户端的连接并响应它们的请求。客户端所需要做的只是创建它的单一通信端点,然后建立一个到服务器的连接。然后客户端就可以发出请求,该请求包括任何必要的数据交换。一旦请求被服务器处理,且客户端收到结果或某种确认信息,此次通信就会被终止。套接字:通信端点套接字是计算机网络数据结构,在任何类型的通信开始之原创 2022-03-13 14:44:50 · 6093 阅读 · 0 评论 -
python—四川大学校园网自动登录
四川大学校园网自动登录import requestsimport redef getLoginMsg(): url = 'http://192.168.2.135' r = requests.get(url=url) try: pattern = "href='(\S+)'" href = re.search(pattern=pattern, string=r.text).group(1) except TypeError:原创 2021-10-15 21:53:17 · 985 阅读 · 4 评论 -
python爬虫—requests模块的cookie处理
requests模块的cookie处理无状态HTTPHTTP的无状态指的是http协议对事物处理是没有记忆能力的,也就是说服务器不知道客户端是什么状态。当我们向服务器发送请求后,服务器解析此请求,然后返回对应的响应,服务器负责完成这个过程,而且这个过程是完全独立的,服务器不会记录前后状态的变化,也就是缺少状态记录。这就意味着如果后续需要处理前面的信息,则必须重传,这导致需要额外传递一些前面的重复请求,才能获取后续响应,然而这种效果显然不是我们想要的。为了保持前后状态,我们肯定不能将前面的请求全部重传一次原创 2021-10-13 23:23:28 · 2541 阅读 · 0 评论 -
python爬虫—数据解析
1 requests库的深度应用网页信息采集import requestsif __name__=="__main__": url="" #将参数封装到字典中 kw=input("enter a word:") param:{ 'query':kw } #UA:User-Agent(请求载体的身份标识) #UA伪装:让爬虫对应的请求载体身份标识伪装成一款浏览器 #UA伪装:将对应的User-Agent封装到一个字典中原创 2021-10-06 09:03:00 · 3924 阅读 · 1 评论 -
python爬虫实战-小说爬取
本文是对requests库和xpath语法的一个学习,建议先去学习学习xpath语法。源码:from bs4 import BeautifulSoupimport requestsimport reimport warningsimport timefrom lxml import etreewarnings.filterwarnings("ignore") # 由于requests获取网页源代码采用verify=False,需要忽略警告headers = { 'User-Agen原创 2021-10-02 10:46:00 · 213 阅读 · 0 评论 -
python爬虫入门(1)
python爬虫(基础篇)网络爬虫:模拟客户端发送请求获取响应数据,按照一定规则,自动从万维网上获取信息的程序。1 requests请求库是一个优雅而简单的python HTTP请求库,作用是发送请求获取响应数据。基本使用import requests#发送请求,获取响应response=requests.get('http://www.baidu.com')#print(response)#获取响应数据response.encoding='utf-8' #改变编码方式print(原创 2021-09-08 00:04:18 · 204 阅读 · 0 评论