写在前面:爬虫是老鼠屎在进入实验室后接触的第一个任务,当时刚刚接触代码的老鼠屎一下子迎来了地狱难度的爬微博签到数据。爬了一个多月毫无成果,所幸带我的师兄从未给我疾言厉色,他给与了我最大的包容与理解。尽管无功而返,但是那一个月也给了老鼠屎充足的学习时间,让老鼠屎对爬虫有了一点点的理解和执念。今天老鼠屎由于项目原因又需要爬天气数据,所以在这里把老鼠屎的一点经验写在这里,希望能给向曾经的我一样迷茫的朋友们一点点帮助,付出的努力总会在不经意的时候绽放
更新一下下,原先的代码爬不出了,现在已经对代码进行了修改,可以爬出想要的内容啦
目录
1 所需要的库
爬虫用到了requests库和BeautifulSoup库,这两个库分别用于对网页的获取和分析,对于数据的整理用到了pandas库。这三个库的安装非常简单,直接在cmd或者powershell当中pip install即可。唯一需要注意的是BeautifulSoup库安装时是在cmd中输入pip install beautifulsoup4。安装有问题的童鞋可以参考老鼠屎的旧博文进行安装。安装好后即可导入所需的库。
import requests
from bs4 import BeautifulSoup
import pandas as pd
2 爬取数据
2.1 获取网页内容
这里,老鼠屎爬取的是天气网上青岛2016年3月的数据。
红色方框内容为网页的url,这里需要用requests库进行请求。
url = "https://lishi.tianqi.com/qingdao/201603.html"
response = requests.get(url)
可以看一下response: