from selenium import webdriver
from selenium.webdriver.common.desired_capabilities import DesiredCapabilities
import csv
#设置UA标识
dcap = dict(DesiredCapabilities.PHANTOMJS)
dcap["phantomjs.page.settings.userAgent"] = (
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36 "
)
driver = webdriver.PhantomJS(executable_path='phantomjs', desired_capabilities=dcap)
#构造百度音乐歌单首页
pageNum = 1
url = '%s%d%s' % ('http://music.baidu.com/songlist/tag/%E5%85%A8%E9%83%A8?orderType=1&offset=', 20*pageNum, '&third_type=')
#创建歌单csv文件
csv_file = open("songlist.csv", "w", newline='', encoding='utf_8_sig')
write = csv.writer(csv_file)
write.writerow(['标题', '播放数', '封面链接', '歌单链接'])
while 1:
#找到歌单内容存放位置
driver.get(url)
data = driver.find_element_by_class_name("songlist-list").find_element_by_tag_name("ul").\
find_elements_by_tag_name("li")
#最后一页跳出循环
if len(data) == 0:
break
#解析当前页歌单列表
for i in range(len(data)):
num = data[i].find_element_by_class_name("num").text
#获取播放数大于500万的歌单
if '万' in num and int(num.split("万")[0]) > 200:
wrap = data[i].find_element_by_class_name("img-wrap").\
find_element_by_tag_name("img")
songListTitle = data[i].find_element_by_class_name("text-title").\
find_element_by_tag_name("a")
#输出歌单名等信息
print(songListTitle.get_attribute('title'),
num, wrap.get_attribute('src'),
songListTitle.get_attribute('href'))
#写入csv文件
write.writerow([songListTitle.get_attribute('title'),
num, wrap.get_attribute('src'),
songListTitle.get_attribute('href')])
#构造下一页url
pageNum += 1
url = '%s%d%s' % ('http://music.baidu.com/songlist/tag/%E5%85%A8%E9%83%A8?orderType=1&offset=', 20*pageNum, '&third_type=')
csv_file.close()
如果没有什么意外,那么你也爬到了这些信息,今天就来说说代码中的一些知识点
1、为什么要设置UA标识
通过这个标识,用户所访问的网站可以显示不同的排版,从而为用户提供更好的体验或者进行信息统计。例如,百度、新浪等网站用手机访问和电脑访问是不一样的,这是因为网站根据访问者的UA判断后,进行了不同的设置和处理。
使用User-Agent伪造浏览器,谎称身份欺骗服务器IE,FireFox,Opera,Maxthon,Chrome,Safari,iPhone,ipad..qq空间说说,微薄转发,有个通过ipad发布。。通过iphone..就是读取User-Agent,当然这个可以伪装的。
用于seo,有一种SEO的技术,就是判断 user-agent,如果是搜索引擎的爬虫,就把内容显示出来,否则的话,只显示给付费用户。所以有的网站能够被Google搜索到,点击链接进去以后 却显示“未注册”、“还不是会员”。通过伪装user-agent可以达到相应的目的。
2、url如何构造
多打开几页歌单,我们发现今天这个百度音乐歌单的地址是依靠offset来控制每页显示的歌单内容。对于不同的网站,url的构成是不同的,这个我们要具体问题具体分析,不能一概而论
3、utf-8编码问题
我使用的python IDE是pycharm,设置文件编码默认为utf-8,如果写入csv文件,Excel的默认编码是gbk,这就会造成中文乱码问题,很多新手不懂什么是文件编码,以为是python程序出现了问题,这个希望大家百度一下,充实自己的知识点,本文不再赘述。
4、Python+selenium常用的一些方法函数
1 加载浏览器驱动: webdriver.PhantomJS()2 打开页面:get()3 关闭浏览器:quit()4 最大化窗口: maximize_window()5 设置窗口参数:set_window_size(600,800)6 后退到前一页: back()7 前进到后一页: forward()8 刷新页面: refresh()
元素定位:
id定位:find_element_by_id()
name定位:find_element_by_name()
class定位:find_element_by_class()
tag定位:find_element_by_tag_name()
link定位:find_element_by_link_text()
partial link 定位: find_element_by_partial_link_text()
Xpath定位:
绝对路径:find_element_by_xpath("绝对路径")
元素属性:find_element_by_xpath("//unput[@id='kw']")
层级与属性结合:find_element_by_xpath("//form[@id='loginForm']/ul/input[1]")
逻辑运算符:find_element_by_xpath("//input[@id='kw' and@class='s_ipt']")
CSS定位:
find_element_by_css_selector()
定位一组元素:
find_elements_by_id()
find_elements_by_name()
find_elements_by_class()
find_elements_by_tag_name()
find_elements_by_link_text()
find_elements_by_partial_link_text()
find_elements_by_xpath()
find_elements_by_css_selector()
熟练掌握这些定位方法,会使我们更容易的定位到我们所希望获得的内容上。
好了,今天就到这里,明天我们讲一下如何爬取动态页面