- 博客(7)
- 收藏
- 关注
原创 第四个爬虫实战代码
看出规律都是由https://www.qidian.com/all/ +page{}/所以第一页:https://www.qidian.com/all/page1/第四页 :https://www.qidian.com/all/page4/第二页:https://www.qidian.com/all/page2/第三页:https://www.qidian.com/all/page3/第一页:https://www.qidian.com/all/我们的目标url:http://a.qidian.com/
2023-12-09 17:43:59
1528
原创 第三个爬虫实战代码(使用xpath表达式)
如果我直接写入'bookname', 'bookurl', 'author', 'press', 'presstime', 'book_price', 'grade', 'comment',那么这将是一个包含8个字符串元素的列表,而不是元组。.split(“/”)方法就可以得到["[清] 曹雪芹 著(0) ","人民文学出版社(1)","1996-12(2)","59.70元(3)"]所以修改后的xpath路径:infos = html.xpath('//tr[@class="item"]')
2023-12-08 12:09:56
1356
原创 Python爬虫正则表达式的学习
(1)\d : 匹配一个数字字符。(2)\D : 匹配一个非数字字符。(3) \w : 匹配一个单词字符(字母、数字或下划线)。(4) \W : 匹配一个非单词字符。(5) \s : 匹配一个空白字符(空格、制表符、换行符等)。(6) \S : 匹配一个非空白字符。
2023-12-03 17:52:45
1517
1
原创 爬虫的第一个小程序
1).发送get请求requests.get()2).发送post请求,requests.post()3).设置请求头,例如:User-Agent、Authorization等# 使用get方法发送get请求,并获取响应内容# pycharm中返回结果为,说明请求成功,若为404、400则请求网址失败print(res)通过BeautifulSoup库可以很轻松地解析Requests库请求的网页, 并把网页源代码解析为Soup文档,以便过滤提取数据。
2023-12-02 19:58:25
1482
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人