认识爬虫:如何使用 requests 模块根据电影类型爬取豆瓣电影排名前20的信息与评分

3、封装请求参数

1# 设置请求参数,根据测试 range 必须赋值才可以取到数据

2params = {

3 ‘sort’: ‘’,

4 ‘range’: ‘0,20’,

5 ‘tags’: ‘’,

6 ‘start’: ‘0’,

7 ‘genres’: ‘爱情’,

8}

4、执行请求、并处理返回结果

1# 执行 GET 请求

2response = requests.get(url=url, headers=headers, params=params)

3

4# 打印响应信息,返回为 json 数据

5print response.content

6

7# 使用response.json() 函数进行序列化输出

8data_json = response.json()

9print data_json

10

11# 提取 data_json 中的具体数据

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
img
img



既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Python开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以添加V获取:vip1024c (备注Python)
img

一、Python所有方向的学习路线

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

img
img

二、Python必备开发工具

工具都帮大家整理好了,安装就可直接上手!img

三、最新Python学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

img

四、Python视频合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

img

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。img

六、面试宝典

在这里插入图片描述

在这里插入图片描述

简历模板在这里插入图片描述

一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
img

正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**
[外链图片转存中…(img-ttOwd5Cn-1712576410914)]

首先,我们需要安装必要的库,如`requests`, `beautifulsoup4`用于网页解析,以及`pymysql`用于与MySQL数据库交互。这里是一个基础的步骤指南: 1. **导入所需库**: ```python import requests from bs4 import BeautifulSoup import pymysql ``` 2. **获取网页内容**: ```python def get_html(url): response = requests.get(url) if response.status_code == 200: return response.text else: print(f"请求失败,状态码:{response.status_code}") return None url = "https://movie.douban.com/top250" html_content = get_html(url) ``` 3. **解析HTML**: ```python def parse_html(html): soup = BeautifulSoup(html, 'lxml') film_list = soup.find('ol', {'class': 'grid_view'}) films = [] for film_item in film_list.find_all('li'): title = film_item.h3.a['title'] year = film_item.find('span', {'class': 'year'}).string rating = film_item.strong['class'][0][5] if film_item.strong.has_attr('class') else '' score = float(rating) if rating else None review_count = film_item.find('div', {'class': 'pl2'}).find('span').string genre = film_item.find('span', {'itemprop': 'genre'}).text.strip() films.append({ 'title': title, 'year': year, 'score': score, 'review_count': review_count, 'genre': genre }) return films films = parse_html(html_content) ``` 4. **连接到MySQL数据库**: ```python def connect_db(): db = pymysql.connect(host='localhost', user='your_username', password='your_password', database='douban_movies', charset='utf8mb4') cursor = db.cursor() return db, cursor db, cursor = connect_db() ``` 5. **将数据存储到数据库**: ```python def save_to_db(films, cursor): insert_query = """ INSERT INTO movie_ratings (title, release_year, score, review_count, genre) VALUES (%s, %s, %s, %s, %s) ON DUPLICATE KEY UPDATE score=VALUES(score), review_count=VALUES(review_count); """ try: with db.atomic(): for film in films[:20]: cursor.execute(insert_query, film.values()) db.commit() except Exception as e: db.rollback() print(f"插入数据时出错:{e}") save_to_db(films, cursor) ``` 6. **关闭数据库连接**: ```python cursor.close() db.close() ``` 注意:以上代码只是一个示例,实际运行时需要替换数据库连接信息,并确保MySQL数据库中存在`movie_ratings`表,该表应有相应的字段结构。同时,由于豆瓣API可能有限制或反爬虫策略,直接抓取数据可能存在风险,请遵守相关法律法规。 至于提交源码截图和数据库查询结果截图,这需要你在本地操作完成后手动截屏,无法通过文字描述提供。你可以使用MySQL客户端工具(如phpMyAdmin)来查看存储的数据。最后记得清理敏感信息和测试完整流程后再分享。如果你对某一步有疑问,可以在
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值