PHP采集

① 采集 snoopy  curl

就是使用PHP程序,把其他网站中的信息抓取到我们自己的数据库中、网站中。

可以通过三种方法来使用PHP访问到网页

    1. 使用file_get_contents()

         前提:在php.ini中设置允许打开一个网络的url地址。  


 使用这个函数时可以直接将路径写入函数中,将所选路径的内容加载出来,但是在访问网上的网址时必须连接网络

<?php   echo file_get_contents('https://www.baidu.com/');  
?>  

2. 使用socket技术采集:

    socket采集是最底层的,它只是建立了一个长连接,然后我们要自己构造http协议字符串去发送请求。

    例如要想获取这个页面的内容,http://tv.youku.com/?spm=a2hww.20023042.topNav.5~1~3!2~A,用socket写

如下:

<?php  
//连接,$error错误编号,$errstr错误的字符串,30s是连接超时时间  
$fp=fsockopen("www.youku.com",80,$errno,$errstr,30);  
if(!$fp) die("连接失败".$errstr);  
   
//构造http协议字符串,因为socket编程是最底层的,它还没有使用http协议  
$http="GET /?spm=a2hww.20023042.topNav.5~1~3!2~A HTTP/1.1\r\n";   //  \r\n表示前面的是一个命令  
$http.="Host:www.youku.com\r\n";  //请求的主机  
$http.="Connection:close\r\n\r\n";   // 连接关闭,最后一行要两个\r\n  
   
//发送这个字符串到服务器  
fwrite($fp,$http,strlen($http));  
//接收服务器返回的数据  
$data='';  
while (!feof($fp)) {  
$data.=fread($fp,4096);  //fread读取返回的数据,一次读取4096字节  
}  
//关闭连接  
fclose($fp);  
var_dump($data);  
?>  

打印出的结果如下,包含了返回的头信息及页面的源码:


③使用fopen获取网页源代码

<?php  
$url = 'https://www.baidu.com/';  
$opts = array(  
    'http'=>array(  
        'method'=>"GET",  
        'header'=>"Accept-language: en\r\n" .  
        "Cookie: foo=bar\r\n"  
    )  
);  
$context = stream_context_create($opts);  
  
$fp = fopen($url, 'r', false, $context);  
while(!feof($fp)) {  
    $result.= fgets($fp, 1024);  
}  
fpassthru($fp);  
fclose($fp);   
  
?>  

④ 使用curl

curl把HTTP协议都封装成了很多函数,直接传相应参数即可,降低了编写HTTP协议字符串的难度。

前提:在php.ini中要开启curl扩展。 

<?php  
         if (function_exists('curl_init')) {        //检查函数是否存在  
        $url = "https://www.baidu.com/";  
        $ch = curl_init();          //初始化curl会话  
        curl_setopt($ch, CURLOPT_URL, $url);    //设置url  
        curl_setopt($ch, CURLOPT_CUSTOMREQUEST, "GET");//3.请求方式  
                curl_setopt($curl, CURLOPT_ENCODING, '');   //设置编码格式,为空表示支持所有格式的编码    
                //header中“Accept-Encoding: ”部分的内容,支持的编码格式为:"identity","deflate","gzip"。  
        curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);  //将curl_exec()获取的信息以字符串返回,而不是直接输出。   0:直接输出  
        curl_setopt($ch, CURLOPT_CONNECTTIMEOUT, 10);   //0.发起执行前无限等待  
        $dxycontent = curl_exec($ch);   // 抓取URL并把它传递给浏览器  
        if (curl_errno($ch)) {  //如果出错  
            return curl_error($ch);  
        }  
        curl_close($ch);//关闭  
        echo $dxycontent;  
    } else {  
        echo '汗!貌似您的服务器尚未开启curl扩展,无法收到来自云落的通知,请联系您的主机商开启,本地调试请无视';  
    }  
?>  

4种方式的选择

网络之间通信主要使用的是以上四种。其中file_get_contents()与curl用的较多:如果要批量采集大量的数据时使用第二种【CURL】,性能好、稳定。

偶尔发几个请求发的频繁不密集时使用file_get_contents()。

附加:采取网站图片

<?php  
    $rs = file_get_contents("compress.zlib://".$url);  
    $preg = '#<img .* src="(.*)" .* >#isU';      
    preg_match($preg,$rs,$img);        //使用正则表达式查询出图片路径  
    $file = file_get_contents('https:'.$img[1]);  
    file_put_contents('baidu.png', $file);      
?>  



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PHP采集Lazada是一种使用PHP编程语言来获取Lazada网站上的数据的方法。Lazada是一个知名的电子商务平台,它提供各种产品的在线购物服务。使用PHP采集Lazada的目的是为了获取Lazada上的商品信息,如商品名称、价格、描述、评价等。 PHP采集Lazada的步骤如下: 1. 首先,需要使用PHPcurl函数建立一个与Lazada网站的连接。curl函数可以模拟浏览器,发送HTTP请求并接收响应。 2. 通过curl函数发送HTTP请求获取Lazada网站的HTML源码。可以通过设置curl选项来指定请求的URL和其他必要参数。 3. 使用PHP的正则表达式函数或DOM解析器来解析HTML源码,提取感兴趣的数据。例如,可以使用正则表达式来匹配商品名称和价格的标签,并从中提取相关信息。 4. 对获取的数据进行处理和存储。可以将数据存储到数据库、Excel文档或其他格式中,以便后续使用。 5. 应该添加错误处理机制,以处理可能出现的错误,如网络连接故障、HTML解析错误等。 6. 根据需要,可以添加其他功能,如自动化采集、分页浏览等。 7. 需要定时运行采集脚本,以保持数据的最新性。 总之,PHP采集Lazada是一种利用PHP编程语言来从Lazada网站上获取数据的方法。通过建立与Lazada的连接,发送HTTP请求并解析响应,我们可以获取Lazada上的商品信息,并对其进行处理和存储。这种方法可以帮助我们快速获取所需的数据,并用于后续分析、使用或展示。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值