用thinkphp写的一个例子:抓取网站的内容并且保存到本地

我需要写这么一个例子,到电子课本网下载一本电子书。

电子课本网的电子书,是把书的每一页当成一个图片,然后一本书就是有很多张图片,我需要批量的进行下载图片操作。

下面是代码部分:

    public function download() {
        $http = new \Org\Net\Http();
        $url_pref = "http://www.dzkbw.com/books/rjb/dili/xc7s/";
        $localUrl = "Public/bookcover/";
        $reg="|showImg\('(.+)'\);|";
        $i=1;
        
        do {
            $filename = substr("000".$i,-3).".htm";
            $ch = curl_init();
            curl_setopt($ch, CURLOPT_URL, $url_pref.$filename);
            curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
            curl_setopt($ch, CURLOPT_CONNECTTIMEOUT, 10);
            curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1);
            $html = curl_exec($ch);
            curl_close($ch);
            
            $result = preg_match_all($reg,$html,$out, PREG_PATTERN_ORDER);
            if($result==1) {
                $picUrl = $out[1][0];
                $picFilename = substr("000".$i,-3).".jpg";
                $http->curlDownload($picUrl, $localUrl.$picFilename);
            }
            $i = $i+1;
        } while ($result==1);

        echo "下载完成";
    }

我这里是以人教版地理七年级地理上册为例子 http://www.dzkbw.com/books/rjb/dili/xc7s/001.htm

网页是从001.htm开始,然后数字一直加

每个网页里面都有一张图,就是对应课本的内容,以图片的形式展示课本内容

我的代码是做了一个循环,从第一页开始抓,一直抓到找不到网页里的图片为止

抓到网页的内容后,把网页里面的图片抓取到本地服务器

抓取后的实际效果:

 

转载于:https://www.cnblogs.com/modou/p/5991617.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值