python爬取豆瓣小组_Python模拟登入豆瓣网,并爬取小组信息

importrequestsfrom bs4 importBeautifulSoupfrom PIL importImage

headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.133 Safari/537.36','Referer':'https://accounts.douban.com/login?alias=&redir=https%3A%2F%2Fwww.douban.com%2F&source=index_nav&error=1001'}

session=requests.Session()

session.headers.update(headers)

username= input('请输入你的用户名:')

password= input('请输入你的密码:')

url= 'https://accounts.douban.com/login'

def login(username,password,source='index_nav',redir='https://www.douban.com/',login='登录'): #模拟登入函数

caprcha_id,caprcha_link = get_captcha(url) #把get_captcha函数返回的值

if caprcha_id: #如果有caprcha_id,就执行解析caprcha_link网页信息,并把图片保存下来打开

img_html =session.get(caprcha_link)

with open('caprcha.jpg','wb') as f:

f.write(img_html.content)try:

im= Image.open('caprcha.jpg')

im.show()

im.close()except:print('打开错误')

caprcha= input('请输入验证码:') #把看到的验证码图片输入进去

data = { #需要传去的数据

'source':source,'redir':redir,'form_email':username,'form_password':password,'login':login,

}if caprcha_id: #如果需要验证码就把下面的两个数据加入到data里面

data['captcha-id'] =caprcha_id

data['captcha-solution'] =caprcha

html= session.post(url,data=data,headers=headers)print(session.cookies.items())def get_captcha(url): #解析登入界面,获取caprcha_id和caprcha_link

html =requests.get(url)

soup= BeautifulSoup(html.text,'lxml')

caprcha_link= soup.select('#captcha_image')[0]['src']#lzform > div.item.item-captcha > div > div > input[type="hidden"]:nth-child(3)

caprcha_id = soup.select('div.captcha_block > input')[1]['value']returncaprcha_id,caprcha_link

login(username,password)

login_url= 'https://www.douban.com/group/'xiaozu_html=session.get(login_url)

soup= BeautifulSoup(xiaozu_html.text,'lxml')#content > div > div.article > div.topics > table > tbody > tr:nth-child(1) > td.td-subject > a

titles = soup.select('tr.pl > td.td-subject > a.title')for title intitles:print(title['href'],title.string)

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
爬虫(Web Crawler)是一种自动化程序,用于从互联上收集信息。其主要功能是访问页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对站造成过大负担或触发反爬虫机制,爬虫需要遵守站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重站的使用政策,并确保对被访问站的服务器负责。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值