python360指数_Python学习之单线程爬取360看看所有电视剧

博主最近在跟@小伟学习Python,刚好有一个学习任务是爬取360影视的所有电视剧和电影的图片,播放链接,评分,名字。这个项目使用分布式+队列来做最好,但是我还没学到,所以勉强使用单线程来做一做看。以下代码基于Python3,只爬取了360看看电视剧板块的全部电视剧的名字、评分、图片链接及播放链接。这个代码还有许多不足,等我学一段时间再来改进一下。具体代码如下:

#author = Xiaofeng

import re

from urllib import request

from bs4 import BeautifulSoup

userAgent = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36"

def fact(url): #主函数

data={}

html = request.urlopen(url)

soup = BeautifulSoup(html.read(),"html.parser")

#获取名字

for namelist in soup.find_all('h1'):

name = namelist.get_text()

data["名字"] = name

#获取评分

for grade in soup.find_all(attrs={'class':"s-title-right"}):

sorce=grade.get_text().strip()

data["评分"] = sorce

#获取播放链接

for link in soup.find_all(attrs={'class':"g-playicon s-cover-img"}):

playurl = link.get('href')

data["播放链接"] = playurl

#获取图片链接

img = link.find_all(name='img')

for url_img in img:

imgurl = url_img.get('src')

data["图片链接"] = imgurl

return data

url = []

for i in range(1,26):

listurl = "https://www.360kan.com/dianshi/list.php?rank=rankhot&cat=all&area=all&act=all&year=all&pageno="+"{i}".format(i=i)

html = request.urlopen(listurl)

soup = BeautifulSoup(html.read(),"html.parser")

#获取详细页的url

for postfix in soup.find_all(attrs={'class':"js-tongjic"}):

inurl = 'https://www.360kan.com'+postfix.get('href')

url.append(inurl)

num = len(url)

for i in range(num):

a=fact(url[i])

print('名字:',a["名字"])

print('评分:',a["评分"])

print('图片链接:',a["图片链接"])

print('播放链接:',a["播放链接"])

print('-'*40)

以下是运行时的部分截图:

版权声明:本文为原创文章,版权归 Helo 所有。

商业转载请联系作者获得授权,非商业转载请注明出处。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python是一种灵活的编程语言,其提供了多种多样的库和框架,以方便用户处理数据和进行网络爬取。在网络爬取方面,Python具有优秀的单线程和多线程爬取能力。 Python单线程爬取实例: 当我们需要爬取一个简单的网站时,单线程爬取可能是最简单和最有效的方法。例如,我们可以编写一个程序来爬取一个网站的所有页面,并将它们保存到本地文件夹中。这个程序可能像这样: ```Python import requests from bs4 import BeautifulSoup def getUrls(url): response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') urls = [] for link in soup.find_all('a'): urls.append(link.get('href')) return urls def download(urls): for url in urls: response = requests.get(url) filename = url.split('/')[-1] with open(filename, 'wb') as f: f.write(response.content) if __name__ == '__main__': urls = getUrls('http://example.com') download(urls) ``` 在这个例子中,我们使用requests和BeautifulSoup库来获取和解析HTML页面,然后使用循环和文件I/O来保存页面内容。 Python多线程爬取实例: 当我们需要爬取大量页面时,单线程爬取可能会非常缓慢,因此我们可以使用多线程爬取来提高效率。例如,我们可以使用Python的多线程库threading来实现多线程爬取。下面是代码示例: ```Python import requests from bs4 import BeautifulSoup import threading def getUrls(url): response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') urls = [] for link in soup.find_all('a'): urls.append(link.get('href')) return urls def download(url): response = requests.get(url) filename = url.split('/')[-1] with open(filename, 'wb') as f: f.write(response.content) class CrawlerThread(threading.Thread): def __init__(self, url): threading.Thread.__init__(self) self.url = url def run(self): download(self.url) if __name__ == '__main__': urls = getUrls('http://example.com') threads = [] for url in urls: t = CrawlerThread(url) threads.append(t) t.start() for t in threads: t.join() ``` 在这个例子中,我们使用多线程CrawlerThread类来下载每个页面。我们创建一个CrawlerThread列表,然后将列表中的每个元素作为参数传递给download函数,以便每个线程都可以执行下载任务。最后,我们使用join方法等待所有线程完成。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值