python爬取指定关键字图片

'''
爬取指定关键字图片
'''
import re# 正则表达式,解析网页
import requests# 请求网页
import traceback
import os
 
    
def dowmloadPic(html,keyword,startNum):
    headers = {'user-agent':'Mozilla/5.0'}# 浏览器伪装,因为有的网站会反爬虫,通过该headers可以伪装成浏览器访问,否则user-agent中的代理信息为python
    pic_url = re.findall('"objURL":"(.*?)",',html,re.S)# 找到符合正则规则的目标网站
    num = len(pic_url)
    i = startNum
    subroot = root + '/' + word
    txtpath = subroot + '/download_detail.txt'

    print('找到关键词:'+keyword+'的图片,现在开始下载图片...')
    
    for each in pic_url:
        a = '第'+str(i+1)+'张图片,图片地址:'+str(each) + '\n'
        b = '正在下载' + a
        print(b)
        path = subroot + '/' + str(i+1)
        try:
            if not os.path.exists(subroot):
                os.mkdir(subroot)
            if not os.path.exists(path):
                pic = requests.get(each,headers = headers,timeout = 10)
                with open(path+'.jpg','wb') as f:
                    f.write(pic.content)
                    f.close()
                with open(txtpath,'a') as f:
                    f.write(a)
                    f.close()
                    
        except:
            traceback.print_exc()
            print ('【错误】当前图片无法下载')
            continue
        i += 1
 
    return i
 
 
if __name__ == '__main__':
    
    headers = {'user-agent':'Mozilla/5.0'}
    words = ['桃子','苹果','梨']
    #words为一个列表,可以自动保存多个关键字的图片
    root = './download_images_of_'
    for word in words:
        root = root + word + '&'
    if not os.path.exists(root):
        os.mkdir(root)
    for word in words:
        lastNum = 0
        # word = input("Input key word: ")
        if word.strip() == "exit":
            break
        pageId = 0
        #此处的参数为需爬取的页数,设置为2页
        for i in range(3):
            url = 'http://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=' + word + "&pn="+str(pageId)+"&gsm=?&ct=&ic=0&lm=-1&width=0&height=0"
            pageId += 20#好像没啥影响
            html = requests.get(url,headers = headers)
            # print(html.text) #打印网页源码,相当于在网页中右键查看源码内容
            lastNum = dowmloadPic(html.text, word, lastNum,)#本条语句执行一次获取60张图

文件层次:
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
参考:爬虫:根据关键词爬取图片
Python爬虫实战教程:批量爬取某网站图片

  • 11
    点赞
  • 32
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 6
    评论
### 回答1: 要想爬取指定时间的微博,可以使用Python语言,借助第三方库来实现。 首先,我们需要登录微博账号,可以使用Selenium库来模拟浏览器登录账号。登录成功后,可以使用BeautifulSoup库从页面中解析出需要的数据。 接着,我们需要构造搜索关键字和时间段。可以使用urlencode函数将关键字和时间段拼接成URL参数,并使用requests库发起请求。在发送请求时,可以设置请求头信息以模拟浏览器请求。 当接收到响应后,我们需要从页面中解析出微博内容。可以使用正则表达式或BeautifulSoup库解析HTML,从中提取出需要的信息。 最后,将爬取到的微博内容存储到本地文件或数据库中,方便后续处理和分析。 需要注意的是,微博对爬虫行为有一定的限制,如果频繁访问同一链接,可能会触发微博的反爬机制,导致IP被封禁,因此爬虫过程中需要注意控制爬取频率。 ### 回答2: 要使用Python爬取指定时间的微博,我们可以通过以下步骤完成。 首先,我们需要安装相关的Python库。我们可以使用Python库中的requests库来发送HTTP请求获取网页内容,使用BeautifulSoup库来解析网页内容,以及使用selenium库来模拟浏览器行为。 接下来,我们需要登录微博账号来获取相应的权限。我们可以使用selenium库来模拟用户登录微博,并保存登录后的cookies。 然后,我们可以使用requests库发送HTTP请求来获取特定时间范围内的微博页面内容。我们可以构造适当的URL,并使用保存的cookies来验证权限。获取到的内容可以通过BeautifulSoup库进行解析。 最后,我们可以从解析的页面中提取出我们想要的信息,例如微博的内容、用户信息等等。我们可以使用正则表达式或BeautifulSoup库来定位和提取相应的信息。 综上所述,凭借Python中的相关库,我们可以很方便地实现爬取指定时间的微博的功能。 ### 回答3: 要用Python爬取指定时间的微博,首先需要了解微博的爬取方式。微博网页版的URL结构可以通过观察分析得知,通过模拟请求这些URL,我们就可以获取指定时间的微博内容。 接下来,我们可以使用Python的爬虫框架Scrapy来实现微博爬取。首先,我们需要创建一个Scrapy项目,然后在该项目的`spiders`文件夹中创建一个爬虫文件。 在爬虫文件中,我们需要定义`start_requests`方法来发送请求。我们可以使用`start_urls`来指定微博页面的URL,同时可以传递参数来指定时间段。可以通过修改URL的查询参数来实现。 爬取到的微博内容可以通过解析网页的HTML文档来获取。使用XPath或BeautifulSoup等库可以方便地提取出微博的内容、发布时间等信息。可以通过相应的选择器来定位HTML中的微博元素,然后提取相关信息。 最后,我们可以将爬取的微博内容保存到数据库或文件中,以便进一步处理和分析。可以使用Python的数据库库或文件操作库来实现。 在编写爬虫代码时,需要注意尊重网站的爬取规则,不要对网站造成过大的访问压力。可以适当设置请求的间隔时间,并且避免同时进行过多的并发请求。 总之,通过以上的步骤,我们可以使用Python爬取指定时间的微博,并且提取出所需的内容。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

毋小黑

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值