python爬虫猫眼电影票房_python爬取猫眼电影top100排行榜

爬取猫眼电影TOP100(http://maoyan.com/board/4?offset=90)

1). 爬取内容: 电影名称,主演, 上映时间,图片url地址保存到mariadb数据库中;

2). 所有的图片保存到本地/mnt/maoyan/电影名.png

代码:

import re

import pymysql as mysql

from urllib import request

from urllib.request import urlopen

u = 'root'

p = 'root'

d = 'python'

sql = 'insert into maoyan_top100 values(%s,%s,%s,%s,%s)'

url = 'http://maoyan.com/board/4?offset='

pattern = r'

[\s\S]*?board-index.*?>(\d+)[\s\S]*? (.*?)[\s]*(.*?)[\s]*?[\s\S]*?releasetime">[\s]*(.*?)[\s]*?'

myAgent = "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0"

conn = mysql.connect(user=u, passwd=p, db=d, charset='utf8', autocommit=True)

cur = conn.cursor()

def write_to_mysql(item):

cur.executemany(sql,item)

def save_picture(rank,img_url,film_name):

img_content = urlopen(img_url).read()

img_name = 'maoyan_images/'+rank+'_'+film_name+'.jpg'

with open(img_name,'wb') as f:

f.write(img_content)

def main():

for i in range(10):

page_url = url+str(i*10)

myrequest = request.Request(page_url, headers={'User-Agent': myAgent})

page_content = urlopen(myrequest).read().decode('utf-8')

items = re.findall(pattern,page_content)

# [('1', 'http://p1.meituan.net/movie/20803f59291c47e1e116c11963ce019e68711.jpg@160w_220h_1e_1c', '霸王别姬', '主演:张国荣,张丰毅,巩俐', '上映时间:1993-01-01')...]

write_to_mysql(items)

for item in items:

save_picture(item[0],item[1],item[2])

if __name__ == '__main__':

main()

爬取结果:

1)保存海报图片

2)数据库数据

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫猫眼电影票房是一种通过编写Python代码自动获取猫眼网站上的实时票房数据的方法。在这个过程中,爬虫程序会访问猫眼电影的网页并提取所需的数据。根据引用和引用[2]的内容,我可以提供以下步骤来说明Python爬虫猫眼电影票房的过程: 1. 确定爬取目标:首先要确定要爬取猫眼电影票房数据的网页地址和需要的数据类型,比如电影名称、票房金额等。 2. 导入相关库:在Python环境中,需要导入一些常用的库,比如requests用于发送HTTP请求、BeautifulSoup用于解析HTML、pandas用于数据处理等。 3. 发送请求并解析HTML:使用requests库发送一个HTTP请求,获取网页的HTML内容。然后使用BeautifulSoup库解析HTML,从中提取出所需的数据。 4. 数据处理:使用pandas库对提取出的数据进行处理和清洗,例如去除重复的数据、处理缺失值等。 5. 存储数据:将清洗后的数据存储到本地文件或数据库中,以备后续分析和使用。 以上是Python爬虫猫眼电影票房的基本步骤。需要注意的是,爬虫过程中可能会遇到反爬虫机制,如引用中所提到的。为了解决这个问题,可以尝试使用一些反反爬虫的方法,比如设置请求头、使用代理IP等。 希望以上内容对你有所帮助。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [Python爬虫实战案例一:爬取猫眼电影](https://blog.csdn.net/2201_75362610/article/details/130763417)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [【Python爬虫爬取猫眼电影票房](https://blog.csdn.net/shenghaomail/article/details/88676506)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值