python版本是3.6.5,上代码:
# 爬取电影天堂
from selenium import webdriver
import requests
from bs4 import BeautifulSoup
import os
import pyperclip
print('开始网页请求')
#使用selenium通过PhantomJS来进行网络请求
driver=webdriver.PhantomJS()
url = 'http://www.dytt8.net'
#这里就不再通过urllib进行网络请求了
driver.get(url)
# 获取网页中class为co_area2的标签
print('开始获取所有链接')
all_link=BeautifulSoup(driver.page_source,'lxml').select('.co_area2')
# 在获取 新片精品模块的 a标签
all_link = all_link[2].select('table a')
count = len(all_link);
# 整理获取的链接
a_link = []
t_name = []
for i in range(0,count):
if i % 2 != 0:
continue
else:
# 打开 新品精品 模块的链接
driver.get( url + all_link[i].get("href"))
# 获取ftp下载地址
ftp_links = BeautifulSoup(driver.page_source,'lxml').select('#Zoom table td a')
if ftp_links == []:
continue
els