Python网络爬虫
以实战为目标
晚风时亦鹿
我宁愿犯错 也不愿什么都不做
展开
-
网络爬虫之json与get方法
requests实战之破解豆瓣电影import jsonimport requestsif __name__ == "__main__": url = ' https://movie.douban.com/j/chart/top_list' parm = { 'type': '24', 'interval_id': '100:90', 'action': '', 'start': '0', # 电影开始的位置原创 2022-03-08 18:10:39 · 668 阅读 · 0 评论 -
Python网络爬虫之response方法
import jsonimport requestsif name == ‘main’:# 1.指定url地址url = ‘https://fanyi.baidu.com/sug’# 2.指定动态搜取数据word=input("enter a word:")data={ 'kw':word}# 3.使用UA伪装headers = { 'Usr-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36原创 2022-03-08 18:09:11 · 4832 阅读 · 0 评论 -
Python Requests爬虫系列--求取关键词页面
需求:爬取搜狗首页的页面数据import requestsif __name__=='__main__': #step 1:搜索Url url='https://123.sogou.com/' #step 2:发起请求 #get方法会返回一个响应对象 response=requests.get(url=url) #step 3:获取响应数据,text返回的是字符串形式的响应数据 page_text=response.text print(p原创 2022-02-15 21:28:51 · 3353 阅读 · 16 评论