【爬虫登录、爬取并评论-简单实用】


版权声明:本文为博主原创文章,转载请在显著位置标明本文出处以及作者网名,未经作者允许不得用于商业目的。

爬虫登录、爬取并评论

需求:登录读网、爬取并评论
环境:windows系统
开发语言:python

使用工具类:
bs4
requests

一:获取登录网页login_url和data参数

可以用错误密码来快速获取登录的login_url地址,之后再用正确的登录来获取请求里面的登录data_comment参数信息

在这里插入图片描述

requests.session()来保存登录的cookies信息

from bs4 import BeautifulSoup
import requests

#一:获取登录cookies------------------------------------------------------------------------------
#获取登录网页内容
login_url = 'https://xx.xxxxxxxxx.cn/wp-admin/admin-ajax.php'
data = {
'action':'ajaxlogin',
'username':'xxxxxxxxxxxxxx@163.com',
'password':'xxxxxxx',
'remember':'true'
}
header = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:98.0) Gecko/20100101 Firefox/98.0'}
session = requests.session()
login_resp = session.post(url=login_url,headers=header,data=data)
# print(login_resp.cookies)
# #存储登录网页内容
# with open('./login_resp.html','w',encoding='utf-8') as fp:
#     fp.write(login_resp.text)

二:用带登录参数的session获取要爬取的网页内容

定位需要的评论内容
在这里插入图片描述

#二:用登录cookies获取要爬取的网页内容--------------------------------------------------------------
detail_url = 'https://xx.xxxxxxxxx.cn/psychology/8384/'
detail_resp = session.get(url=detail_url,headers=header)
# #存储要爬取的网页内容
# with open('./detail_resp.html','w',encoding='utf-8') as fp:
#     fp.write(detail_resp.text)
bs = BeautifulSoup(detail_resp.text,'html.parser')
comment_list = bs.find_all('li',class_='comment-item')
for info in comment_list:
    name_list = info.find('div',class_='comment-txt').find('div',class_='hd').find('cite',class_='fn').text
    data_list = info.find('div',class_='comment-txt').find('div',class_='hd').find('p',class_='date').text
    text_list = info.find('div',class_='comment-txt').find('div',class_='bd').find('p').text
    reply_list = info.find('div',class_='comment-txt').find('div',class_='bd').find('a')['href']
    inf = {
        '评论者':name_list,
        '评论日期':data_list,
        '评论内容':text_list,
        # '回复链接':reply_list
    }
    print(inf)



三:用登录cookies获取要爬取的网页内容

自己评论一下来获取detail_url:和data_comment在这里插入图片描述

在这里插入图片描述

#三:提交评论------------------------------------------------------------------------------
comment_url = 'https://xx.xxxxxxxxx.cn/wp-comments-post.php'
data_comment={
'comment':'comment_3',
'submit':'',
'comment_post_ID':'8384',
'comment_parent':'0'
}
comment_resp = session.post(comment_url,data=data_comment)
if comment_resp.status_code ==200:
    print('评论成功')
else:
    print('评论发送失败,状态码为{}'.format(comment_resp.status_code))

版权声明:本文为博主原创文章,转载请在显著位置标明本文出处以及作者网名,未经作者允许不得用于商业目的。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫是一种通过编写代码来自动抓取互联网上数据的工具。而豆瓣音乐是一个很受欢迎的音乐平台,所以爬取豆瓣音乐的数据是一个常见的应用场景。 要实现爬取豆瓣音乐,首先我们需要了解一下豆瓣音乐网页的结构。通过分析豆瓣音乐的页面HTML代码,可以发现每首歌曲都包含在一个特定的HTML元素中,例如一个<div>标签或者一个<ul>标签。在这个标签内,歌曲的信息通常都是按照固定的格式排列的,比如包含歌曲名、歌手、专辑等信息。 接下来,我们可以使用Python爬虫库,例如requests或者Scrapy来发送HTTP请求并获取豆瓣音乐的网页内容。通过解析这个网页内容,可以提取出我们所需要的歌曲信息。 在实际操作中,我们可以使用XPath或者正则表达式等工具来提取网页中的数据。举个例子,如果我们想要获取歌曲名,可以使用XPath表达式“//div[@class='song-title']”或者正则表达式“<div class="song-title">(.+?)</div>”来提取出这个信息。 爬取到的数据可以保存在本地文件或者数据库中。如果我们想要爬取多个页面的数据,可以使用Python的循环来遍历不同的页面,并将每个页面的数据保存到同一个文件或数据库中。 需要注意的是,在进行网页爬取的过程中,我们应该尊重豆瓣音乐的规定和爬取的道德规范。我们可以通过设置合适的请求头和请求频率来避免对网站造成不必要的压力。 总的来说,使用Python爬虫爬取豆瓣音乐是一个相对简单实用的应用场景。通过这个过程,我们不仅可以获取到感兴趣的音乐数据,还能够锻炼和提高我们的编程和数据处理能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值