利用python爬取琉璃✩

思路:利用requests.get() + 正则表达式 + 文件存储

详见Github:https://github.com/risingsun1412/liulishenshe_crawler

from requests import get
from re import findall
from time import sleep


def get_pages():#获取页数
    from_url = '/wp/category/all/anime/'
    res_get = get(from_url)
    res = findall(r'>第 1 页,共 ([1-9]\d+) 页</span>', res_get.text)
    return int(res[0])

def download(each_url):#获取每一个资源的磁力链
    url_text = get(each_url).text
    res_magnet = findall(r'([0-9a-fA-F]{40})', url_text)#可能有多个
    magnet_set = set(res_magnet)#使用set去重
    res_title = findall(r'<h1 class="entry-title">(.*?)</h1>', url_text)#唯一的
    
    with open('magnet_links.txt', 'a+', encoding = 'utf-8') as f:
        if res_title is not None:
            f.write(res_title[0] + ':\n')
            for each in magnet_set:
                f.write('        magnet:?xt=urn:btih:' + each + '\n')
        else:
            print('[!]Cannot find magnet links! Skip it!')
            return

def visit_each_page(pages):#进入每一个页面找资源
    try:
        root_url = '/wp/category/all/anime/page/'
        for i in range(1, pages + 1):
            print('[*]Now in page %d'%i)
            now_url = root_url + str(i) + '/'
            now_page_text = get(now_url).text
            
            #now_res = findall('href="(/wp/all/anime/.*?more.*?)"', now_page_text)
            now_res = findall(r'<h1 class="entry-title"><a href="(.*?)".*?</a>', now_page_text)
            if now_res != None:
                for each in now_res:
                    download(each)
                    print('[*]sleep for 2s')
                    sleep(2)
    except:
        exit('[!]Oh no!!! Something wrong has happened!\n[!]May be the website has been changed ?')
if __name__ == "__main__":
    pages = get_pages()
    visit_each_page(pages)

  • 10
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 11
    评论
利用Python爬取养老院数据是一种通过自动化程序获取互联网上关于养老院的信息的方法。Python是一种简单易学的编程语言,具有强大的网络爬取功能,可以帮助我们实现这个目标。 首先,需要选择一个合适的爬虫框架,比如Scrapy或BeautifulSoup。这些框架可以帮助我们简化数据爬取的流程。 接下来,我们需要确定要爬取的养老院的网站。可以从搜索引擎中找到一系列相关的养老院网站,并逐个进行分析。从网站中找到关于养老院的信息,比如名称、地址、电话、服务项目等。 然后,我们需要编写Python代码来实现数据的爬取。首先,需要使用HTTP请求库来向网站发送请求,获取网页源代码。然后,使用解析库来解析网页源代码,提取需要的信息。最后,使用存储库将提取的数据保存到本地或数据库。 在进行爬取过程时,需要注意法律和道德规范。确保遵守网站的爬取政策,以免侵犯他人的权益。爬取过程中也需要注意网站服务器的压力,避免给服务器带来过大的负担。 总结起来,利用Python爬取养老院数据是一种有效的方式,可以帮助我们快速获取互联网上的养老院信息。通过选择合适的爬虫框架和编写相应的代码,可以实现自动化数据爬取,从而节省时间和精力。同时,也需要遵守法律和道德规范,保护个人隐私和网站的正常运营。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值