爬取豆瓣网电影信息

#coding:utf-8
import urllib2
import bs4
from bs4 import BeautifulSoup
#爬取豆瓣网电影简介,包括电影名,导演,评分以及介绍等
class DBTOP():
    def __init__(self):
        self.usr_agent='Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'
        self.headers={'Usr_Agent':self.usr_agent}
        self.pageIndex=0
    def getHtml(self,pageIndex):
        #http://movie.douban.com/top250?start=0&filter=&type=%3Ctype%20%27type%27%3E
        #http://movie.douban.com/top250?start=25&filter=&type=%3Ctype%20%27type%27%3E
        #http://movie.douban.com/top250?start=50&filter=&type=%3Ctype%20%27type%27%3E
        #发现网页的规律,填写好url。
        #开始写的是url='http://movie.douban.com/top250?start='+str(pageIndex)+'&filter=&type=%3Ctype%20%27type%27%3E'
        #后来发现去掉&filter=&type=%3Ctype%20%27type%27%3E也可以
        try:
            url='http://movie.douban.com/top250?start='+str(pageIndex)
            request=urllib2.Request(url,headers=self.headers)
            page=urllib2.urlopen(request)
            html=page.read()
            return html
        except urllib2.URLError,e:
            if hasattr(e,'reason'):
                print u"连接失败",e.reason
                return None
    def getItems(self):
        #这是开始定义的方法L=[0,25,50,75,100,125,150,170,200,225],具体是忘了range的所有参数
        L=range(0,226,25)
        for pageIndex in L:
            html=self.getHtml(pageIndex)
            soup=BeautifulSoup(html)
            #分析源代码,发现所需内容都在<li>标签中,但并不是一开始就在,需要进行索引取值
            li_list=soup.find_all("li")
            l=range(19,44)
            f=open('doubantop250.txt','a+')
            for i in l:
                f.write(li_list[i].get_text("|",strip=True).encode('utf-8')+'\n')
            f.close()
spider=DBTOP()
spider.getItems()


小某说:

关于range()函数的用法:

range(初始值,结束值,间隔值)//range(start,stop,step)

1.初始值一般默认为0。range(5)=range(0,5)

2.结束值一般不包括本身。range(0,5)表示[0.1.2.3.4]

3.间隔值不设置时默认为1。range(0,5)=range(0,5,1),range(0,5,2)则表示隔两个一取值,即[0,2,4]

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
我可以告诉你如何使用代理IP爬取豆瓣电影,但请注意这可能涉及到一些法律和道德问题,因此请确保你有合法的许可和良好的意图。 首先,你需要获取一些代理IP地址,你可以从一些付费的代理商那里购买,也可以使用一些免费的代理站。 然后,你需要使用编程语言例如Python来编写爬虫程序。在程序中,你需要设置代理IP地址,使得每次请求都会使用不同的IP地址。 具体来说,你可以使用Python的requests库来发送HTTP请求,并在请求头中设置代理IP地址。以下是一个简单的示例代码: ```python import requests # 代理IP地址 proxies = { 'http': 'http://127.0.0.1:8080', 'https': 'https://127.0.0.1:8080', } # 请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36' } # 发送请求 response = requests.get('https://movie.douban.com/', headers=headers, proxies=proxies) # 输出响应内容 print(response.text) ``` 在这个示例代码中,我们使用了一个代理IP地址 `http://127.0.0.1:8080`,并将其设置为HTTP和HTTPS协议的代理。我们还设置了一个请求头,以伪装成一个浏览器发送请求。最后,我们使用requests库发送HTTP请求,并输出响应内容。 请注意,使用代理IP爬取站可能会遇到一些问题,例如代理IP可能不稳定,可能会被站封禁等等。因此,你需要小心使用,并确保你的行为合法和道德。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值