啦啦啦,本周工作日的最后一天,我来冒个泡
预备
要了解CURL的使用:参考一:我自己总结的curl的使用;
参考二:CURL手册;
参考三:匹配查找
一、背景,原因
今天其实没有特别的事情,突然想起来前端时间朋友的网店,因为供应商不给提供图片数据包,只能一张一张的保存,然后上传,我就觉着我试试获取网站的图片吧(支持获取https协议网站);
二、漫漫请求路
这个实现就是获取网站的信息,那么首先映入脑海的万能的CURL方法,不了解的可以点击去学习一下。这里很重要,只有抓取到页面数据你才能获取到想要的东西并保存下来;
首先,获取页面数据:
这个封装的方法也是支持抓取http、https两种协议的网站页面信息
public function is_request($url, $ssl = true, $type = "GET", $data = null)
{
$curl = curl_init();
curl_setopt($curl, CURLOPT_URL, $url);
$user_agent = isset($_SERVER["HTTP_USERAGENT"]) ?
$_SERVER['HTTP_USERAGENT'] :
'Mozilla / 5.0 (Windows NT 6.1; WOW64) AppleWebKit / 537.36 (KHTML, like Gecko) Chrome / 50.0.2661.102 Safari / 537.36';
curl_setopt($curl, CURLOPT_USERAGENT, $user_agent);//请求代理信息
curl_setopt($curl, CURLOPT_AUTOREFERER, true);//referer头 请求来源
curl_setopt($curl, CURLOPT_TIMEOUT, 30);//请求超时
curl_setopt($curl, CURLOPT_HEADER, false);//是否处理响应头
curl_setopt($curl, CURLOPT_RETURNTRANSFER, true);//curl_exec()是否返回响应
curl_setopt($curl, CURLOPT_FOLLOWLOCATION, 1);
if ($ssl) {
curl_setopt($curl, CURLOPT_SSL_VERIFYPEER, false);//禁用后curl将终止从服务端进行验证
curl_setopt($curl, CURLOPT_SSL_VERIFYHOST, false);//检查服务器ssl证书中是否存在一个公用名(common name)
}
if ($type == 'POST') {
curl_setopt($curl, CURLOPT_POST, true);
curl_setopt($curl, CURLOPT_POSTFIELDS, $data);
}
//发出请求
$response = curl_exec($curl);
if ($response === false) {
return false;
}
return $response;
}
其次,就是通过正则匹配,获取页面中所有的满足你条件的字符串组:
$img_pattern = "|<img[^>]+src=['\" ]?([^ '\"?]+)['\" >]|U";
preg_match_all($img_pattern, $content, $img_out, PREG_SET_ORDER);
最后喽,你都获取到了页面中所有的img标签,那就可以循环保存在自己指定的文件中喽:
/**
* 保存单个图片的方法
*
* @param String $capture_url 用于抓取图片的网页地址
* @param String $img_url 需要保存的图片的url
*
*/
public function save_one_img($capture_url,$img_url)
{
//图片路径地址
// if ( strpos($img_url, 'http://')!==false )
// {
// // $img_url = $img_url;
// }else
// {
// $domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1);
// $img_url=$domain_url.$img_url;
// }
$pathinfo = pathinfo($img_url); //获取图片路径信息
$pic_name=$pathinfo['basename']; //获取图片的名字
if (file_exists($this->save_path.$pic_name)) //如果图片存在,证明已经被抓取过,退出函数
{
echo $img_url . '<span style="color:red;margin-left:80px">该图片已经抓取过!</span><br/>';
return;
}
//将图片内容读入一个字符串
// dd($img_url);
// info($img_url);
$img_data = @file_get_contents($img_url); //屏蔽掉因为图片地址无法读取导致的warning错误
if ( strlen($img_data) > $this->img_size ) //下载size比限制大的图片
{
$img_size = file_put_contents($this->save_path . $pic_name, $img_data);
if ($img_size)
{
echo $img_url . '<span style="color:green;margin-left:80px">图片保存成功!</span><br/>';
} else
{
echo $img_url . '<span style="color:red;margin-left:80px">图片保存失败!</span><br/>';
}
} else
{
echo $img_url . '<span style="color:red;margin-left:80px">图片读取失败!</span><br/>';
}
}
当然,为了避免重复下载,我判断了是否已经下载过,下面的完整的项目代码:BaseService主要是为了引入is_request()
三、重中之重,完整的代码
class GetImgController extends Controller
{
public $save_path; //抓取图片的保存地址
//抓取图片的大小限制(单位:字节) 只抓比size比这个限制大的图片
public $img_size=0;
//定义一个静态数组,用于记录曾经抓取过的的超链接地址,避免重复抓取
public static $a_url_arr=array();
protected $baseService ;
/**
* @param BaseService $baseService
*/
public function __construct(BaseService $baseService)
{
$this->save_path=public_path().'/uploadfile/curl_img/chumaoqi/lunbo/';
$this->img_size=0;
$this->baseService = $baseService;
}
/**
* 递归下载抓取首页及其子页面图片的方法 ( recursive 递归)
*
* @param Request $request
*
*/
public function recursive_download_images(Request $request)
{
$capture_url = $request->input('url');
if (!in_array($capture_url,self::$a_url_arr)) //没抓取过
{
self::$a_url_arr[]=$capture_url; //计入静态数组
} else //抓取过,直接退出函数
{
return;
}
$this->download_current_page_images($capture_url); //下载当前页面的所有图片
//用@屏蔽掉因为抓取地址无法读取导致的warning错误
$content=@file_get_contents($capture_url);
//匹配a标签href属性中?之前部分的正则
$a_pattern = "|<a[^>]+href=['\" ]?([^ '\"?]+)['\" >]|U";
preg_match_all($a_pattern, $content, $a_out, PREG_SET_ORDER);
$tmp_arr=array(); //定义一个数组,用于存放当前循环下抓取图片的超链接地址
foreach ($a_out as $k => $v)
{
/**
* 去除超链接中的 空'','#','/'和重复值
* 1: 超链接地址的值 不能等于当前抓取页面的url, 否则会陷入死循环
* 2: 超链接为''或'#','/'也是本页面,这样也会陷入死循环,
* 3: 有时一个超连接地址在一个网页中会重复出现多次,如果不去除,会对一个子页面进行重复下载)
*/
if ( $v[1] && !in_array($v[1],self::$a_url_arr) &&!in_array($v[1],array('#','/',$capture_url) ) )
{
$tmp_arr[]=$v[1];
}
}
foreach ($tmp_arr as $k => $v)
{
//超链接路径地址
if ( strpos($v, 'http://')!==false ) //如果url包含http://,可以直接访问
{
$a_url = $v;
}else //否则证明是相对地址, 需要重新拼凑超链接的访问地址
{
$domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1);
$a_url=$domain_url.$v;
}
$this->recursive_download_images($a_url);
}
}
/**
* 下载当前网页下的所有图片
*
* @param String $capture_url 用于抓取图片的网页地址
* @return Array 当前网页上所有图片img标签url地址的一个数组
*/
public function download_current_page_images($capture_url)
{
// $capture_url = $request->input('url');
$content = $this->baseService->is_request($capture_url);
//匹配img标签src属性中?之前部分的正则
$img_pattern = "|<img[^>]+src=['\" ]?([^ '\"?]+)['\" >]|U";
preg_match_all($img_pattern, $content, $img_out, PREG_SET_ORDER);
$photo_num = count($img_out);
//匹配到的图片数量
echo '<h1>'.$capture_url . "共找到 " . $photo_num . " 张图片</h1>";
foreach ($img_out as $k => $v)
{
$this->save_one_img($capture_url,$v[1]);
}
}
/**
* 保存单个图片的方法
*
* @param String $capture_url 用于抓取图片的网页地址
* @param String $img_url 需要保存的图片的url
*
*/
public function save_one_img($capture_url,$img_url)
{
//图片路径地址
// if ( strpos($img_url, 'http://')!==false )
// {
// // $img_url = $img_url;
// }else
// {
// $domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1);
// $img_url=$domain_url.$img_url;
// }
$pathinfo = pathinfo($img_url); //获取图片路径信息
$pic_name=$pathinfo['basename']; //获取图片的名字
if (file_exists($this->save_path.$pic_name)) //如果图片存在,证明已经被抓取过,退出函数
{
echo $img_url . '<span style="color:red;margin-left:80px">该图片已经抓取过!</span><br/>';
return;
}
//将图片内容读入一个字符串
// dd($img_url);
// info($img_url);
$img_data = @file_get_contents($img_url); //屏蔽掉因为图片地址无法读取导致的warning错误
if ( strlen($img_data) > $this->img_size ) //下载size比限制大的图片
{
$img_size = file_put_contents($this->save_path . $pic_name, $img_data);
if ($img_size)
{
echo $img_url . '<span style="color:green;margin-left:80px">图片保存成功!</span><br/>';
} else
{
echo $img_url . '<span style="color:red;margin-left:80px">图片保存失败!</span><br/>';
}
} else
{
echo $img_url . '<span style="color:red;margin-left:80px">图片读取失败!</span><br/>';
}
}
}
其中recursive_download_images()是递归下载指定页面以及子页面下的图片,download_current_page_images()只是下载指定地址页面的图片,你可以稍作调整,从而满足你的需求。
四、写在最后
网络有很多这种curl请求获取页面数据的,大家都可以参考