关闭

Python爬虫——百度+新浪微盘下载歌曲

标签: python爬虫下载歌曲
778人阅读 评论(0) 收藏 举报
分类:

  本篇分享将讲解如何利用Python爬虫在百度上下载新浪微盘里自己想要的歌手的歌曲,随便你喜欢的歌手!
  首先我们先探索一下我们操作的步骤(以下载Westlife的歌曲为例):打开百度,输入”Westlife 微盘”,将弹出如下页面:
  百度Westlife
  第1,2条是新浪微盘的搜索记录,但第1条记录中的歌曲大于1首,我们将不对其进行下载,下载的网页类似于一下页面:
  新浪微盘 一首歌
  接下来点击该页面的下载按钮即可下载,等待一会儿关闭当前网页回到原所搜页面,再对下一条记录进行处理。我们写Python爬虫程序的爬取网页的基本过程就如上所述啦。
  在上一篇分享中,我们已了解了如何运行爬虫程序。所以这一次,直接上程序!哈哈~~

# -*- coding: utf-8 -*-
"""
Created on Mon Aug  7 09:22:12 2017
@author: JClian
"""
import os
import re
import time
import datetime 
from selenium import webdriver  #导入Selenium的webdriver
from selenium.webdriver.common.keys import Keys  #导入Keys
from selenium.webdriver.common.action_chains import ActionChains
#导入selenium的异常
from selenium.common.exceptions import TimeoutException,NoSuchElementException,WebDriverException

def getSong(songer):
    chrome_options = webdriver.ChromeOptions()
    # 不加载图片(提升加载速度);设置默认保存文件路径
    prefs = {"profile.managed_default_content_settings.images":2,\
             "download.default_directory": 'F:\\download_music\%s' %songer}
    chrome_options.add_experimental_option("prefs",prefs)
    browser = webdriver.Chrome(chrome_options=chrome_options) #启动浏览器 
    browser.maximize_window() #最大化
    #设置网页加载等待时间为20s,超过20s后则停止加载
    browser.set_page_load_timeout(20) 
    try:
        browser.get('https://www.baidu.com/') #获取百度网页
    except TimeoutException:
        browser.execute_script('window.stop()')
    #在百度搜索栏搜索“歌手 微盘”,并点击“百度一下”按钮
    browser.find_element_by_id("kw").send_keys('%s 微盘'% songer)
    browser.find_element_by_id("su").click()
    time.sleep(5)
    #对每一页的搜索记录进行处理
    def each_page(j):
        for i in range(1+10*j,11+10*j):
            print(datetime.datetime.now(),"第%d页~~~~~~~~~~~~~~~~~~~"%i)
            #找到该条搜索记录,并点击
            elem = browser.find_element_by_xpath("//*[@id='%d']/h3/a"%i)
            elem.click()
            time.sleep(10)
            #切换到新弹出的窗口
            browser.switch_to_window(browser.window_handles[1])
            #判断是否是新浪微盘网页,若是,则再判断里面分享的歌曲是否大于一首
            if re.match('^http://vdisk.weibo.com/s',browser.current_url):
                print("这是一个新浪微盘的网页!")
                t = browser.find_elements_by_class_name("short_name")
                if len(t) > 0:
                    print("歌曲大于1首,不进行下载!\n")
                else:
                    print("可以进行下载!")
                    #统计此时下载文件夹中的文件数量,作为下载成功的标志
                    music_exit_flg = len(os.listdir("F:\\download_music\%s"%songer))
                    #找到该页面的“下载”按钮,并按下
                    elem = browser.find_element_by_id("download_big_btn").click()
                    print("歌曲正在下载中...")
                    time.sleep(8)
                    #获取歌曲的歌名信息
                    file_name = browser.find_element_by_class_name("page_down_filename").text
                    exit_flg = 0 #歌曲重新下载的标志
                    while True:
                        #如果下载文件夹文件数量增加1,则下载成功,否则重新下载
                        if len(os.listdir("F:\\download_music\%s"%songer)) == (music_exit_flg+1):
                            print("%s 下载成功!\n"%file_name)
                            break
                        else:
                            browser.refresh() #刷新网页
                            time.sleep(5)
                            music_exit_flg = len(os.listdir("F:\\download_music\%s"%songer))
                            elem = browser.find_element_by_id("download_big_btn").click()
                            print("正在尝试重新下载...")
                            time.sleep(8)
                            exit_flg += 1
                            if exit_flg == 3: #尝试重新下载3次仍未下载后,则下载失败
                                print("%s下载失败啦~~\n" %file_name)
                                break

            else:
                print(("这不是一个新浪微盘的网页!\n"))
            #关闭当前窗口,并切换到原来的搜索页面
            browser.close()
            time.sleep(2)
            browser.switch_to_window(browser.window_handles[0])

    pages = 20 #设置爬取网页的数量为20,即200条搜索记录
    for i in range(pages):
        each_page(i)
        #点击该页面中的“下一页”按钮
        if i ==0:
            browser.find_element_by_class_name("n").click()
        else:
            browser.find_elements_by_class_name("n")[1].click()
        time.sleep(8)

    browser.close()#关闭窗口
    print(datetime.datetime.now(),"%s的歌曲已操作完毕啦!" % songer)

def main():
    d1 = datetime.datetime.now()
    #要搜索的歌手的列表
    songer_lst = ['Westlife', 'Backstreet Boys', 'Michael Jackson', 'Owl City', 'James Blunt', \
                  'Avril Lavigne','Tylor Swift','Beyonce', 'Groove Coverage', 'Jewel', 'Beyond']
    for songer in songer_lst: #运行getSong()函数,并加入异常处理
        try:
            print(datetime.datetime.now(),"开始搜索%s的歌曲啦!"% songer)
            os.mkdir(os.path.join("F:\\download_music",songer)) #创建新文件夹
            getSong(songer)
        except TimeoutException:
            print(datetime.datetime.now(),"%s的歌曲下载超时啦!嘿嘿~~"% songer)
        except NoSuchElementException:
            print(datetime.datetime.now(),"哎呦,除了点小问题... NoSuchElementException")
        except WebDriverException:
            print(datetime.datetime.now(),"哎呦,除了点小问题...WebDriverException")
    d2 = datetime.datetime.now()
    print("开始时间:",d1)
    print("结束时间:",d2)
    print("一共花费的时间:",d2-d1)

main()

  笔者利用睡觉时间让程序自己运行(注意设置电脑不休眠),运行结果如下(网速貌似有点不给力呢):
  运行结果
  再去电脑上查看下载的文件:
  文件夹
  在进入Westlife文件夹查看:
  69个项目
  Westlife下载结果
  哈哈,厉害了,我的爬虫!在网速不给力的情况下,程序还是跑了7个多小时,下载了674个文件,已经很不错啦,就是有部分下载文件不是歌曲罢了,但已经符合笔者的期待了……



  笔者已将源程序放在码云网站上,欢迎大家下载,测试,批评指正。
  有了这个程序,你就能在电脑上,一边看电影,一边下载自己喜欢的歌手的歌曲啦。你也可以在自己上班或不用电脑的时候下载歌曲(注意设置电脑不休眠,网速要好!!!),回来后说不定满满的都是惊喜呢~~~
  期待下一篇分享^O^

0
0
查看评论

python爬虫之爬取百度音乐

本人大三真皮沙发又来了,继上次写了一个爬取捞月狗直播的爬虫后,笔者觉得自己有必要写一个原创的爬虫小框架。可是大家都知道,一个成熟的框架是十分困难的,所以笔者就尝试了不同的数据的抓取方法。在不同的方法中,找到最方便最快捷的爬虫方式。 在上次的爬虫中,抓取的数据主要用到的是第三方的Beautifuls...
  • qq_22636145
  • qq_22636145
  • 2017-03-24 20:22
  • 2051

一步步分析百度音乐的播放地址,利用Python爬虫批量下载

百度音乐不需要登录也可以下载?听到这个消息是不是很兴奋呢, 接下来我们打开百度音乐,随便打开一首歌,切换到百度播放页面:如图 我这里用的是Firfox 浏览器,打开firebug 先清空所有的请求,如图: 现在我们重新刷新下页面,看到这个.mp3的地址就是百度音乐的地址,我们可以直接复制到迅雷里...
  • zhangxiao_0000
  • zhangxiao_0000
  • 2016-05-06 22:48
  • 1995

HtmlAgilityPack 爬虫批量获取百度音乐下载地址一

最近对爬虫比较感兴趣。刚上手C#。于是想试试用C#实现一个爬虫,获取百度音乐的下载地址。本文没什么技术含量。只是个人兴趣,所以不厌其烦写下过程,让有兴趣的做一个参考。        如图 百度音乐的首页     ...
  • Witch_Soya
  • Witch_Soya
  • 2012-12-18 21:21
  • 10431

Python爬虫下载QQ音乐网站歌曲

Python爬虫下载QQ音乐网站歌曲1.分析QQ音乐网站数据请求url在QQ音乐搜索歌曲页面,通过浏览器调试工具,监测到向服务器发出的请求,获取到的json数据中list正好保存了对应于单页搜索结果的数据。查看请求header,得到urlhttps://c.y.qq.com/soso/fcgi-bi...
  • u014584274
  • u014584274
  • 2017-06-01 22:00
  • 1113

python下载百度音乐

之前看到有人写过类似的代码,感觉有点累赘,其中登陆那些东西其实可以避免的 我把百度音乐的网页代码稍微分析了一下,如果要求不高,下载普通音质的歌曲是不需要登陆的(当然如果你用浏览器打开下载的话,普通音质也是要求登陆下载的) 看其代码发现,即使你没有登陆,其实下载链接也已经暴露出来了,只是用java...
  • jieCooner
  • jieCooner
  • 2014-12-29 11:43
  • 1205

Python爬虫——利用新浪微盘下载周杰伦的歌曲(共190首)

Python爬虫 利用新浪微盘下载周杰伦的歌曲
  • jclian91
  • jclian91
  • 2017-08-12 12:15
  • 1150

python3.4爬虫批量下载音乐

最近在学习python,使用的版本为python3.4,开发环境为使用Pydev插件的eclipse。正好觉得http://www.dexiazai.com/?page_id=23上的音乐不错,决定使用python批量下载下来。      1、音乐来源 ...
  • jrn1012
  • jrn1012
  • 2015-05-15 17:49
  • 5438

1号小爬虫:普通的爬虫,下载百度壁纸

(更多爬虫请见:[我的爬虫史](http://blog.csdn.net/Bone_ACE/article/details/50195839)) 代码说明: 曾经模仿实现过下载淘宝MM图片的爬虫,现在重新拾起爬虫,也是先从下载图片开始。本爬虫用来下载百度壁纸(传送门)。 源代码: ...
  • Bone_ACE
  • Bone_ACE
  • 2015-12-07 17:11
  • 2150

python爬虫爬取百度搜索结果

python爬虫爬取百度搜索结果用到的工具 python urllib BeautifulSoup 简介 爬虫的思路是用程序模拟浏览器浏览网页的工程,通过获取网页内容,并利用正则表达式等来提取页面上自己需要的内容. 工作流程 构建访问请求 获取网站响应 提取关键数据 构建访问请求requestpth...
  • FANGPINLEI
  • FANGPINLEI
  • 2016-08-19 20:05
  • 9101

python爬虫实例--百度风云榜

最近需要收集百度风云榜上的数据,手工的方式实在是让人受不了,自学了python一段时间,就利用python写了一个百度风云榜单的爬虫程序,遇到了各种格式转化的问题,好在一个一个都解决了,能够成功爬取到数据,每天执行一次数据就ok了,本来10分钟的事情,现在2s就解决了。
  • fanfanrenrenmi
  • fanfanrenrenmi
  • 2016-08-08 23:28
  • 1208
    个人资料
    • 访问:13007次
    • 积分:833
    • 等级:
    • 排名:千里之外
    • 原创:71篇
    • 转载:0篇
    • 译文:0篇
    • 评论:0条