收藏个比较方便的curl方法,同时爬取多个url

来自 https://www.cnblogs.com/chunguang/p/5895179.html
#多线程并发抓取函数mfetch:
function mfetch($params=array(), $method){
    $mh = curl_multi_init(); #初始化一个curl_multi句柄
    $handles = array();
    foreach($params as $key=>$param){
        $ch = curl_init(); #初始化一个curl句柄
        $url = $param["url"];
        $data = $param["params"];
        if(strtolower($method)==="get"){
           #根据method参数判断是post还是get方式提交数据
            $url = "$url?" . http_build_query( $data ); #get方式
        }else{
            curl_setopt( $ch, CURLOPT_POSTFIELDS, $data ); #post方式
        }
        curl_setopt($ch, CURLOPT_URL, $url);
        curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
        curl_setopt($ch, CURLOPT_HEADER, 0);
        curl_setopt($ch, CURLOPT_CONNECTTIMEOUT, 30);
        curl_setopt($ch, CURLOPT_TIMEOUT, 30);
        curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1);
        curl_setopt($ch, CURLOPT_USERAGENT, $_SERVER["HTTP_USER_AGENT"]);
        curl_multi_add_handle($mh, $ch);
        $handles[$ch] = $key;
        #handles数组用来记录curl句柄对应的key,供后面使用,以保证返回的数据不乱序。
    }
    $running = null;
    $curls = array(); #curl数组用来记录各个curl句柄的返回值
    do { #发起curl请求,并循环等等1/100秒,直到引用参数"$running"为0
        usleep(10000);
        curl_multi_exec($mh, $running);
        while( ( $ret = curl_multi_info_read( $mh ) ) !== false ){
#循环读取curl返回,并根据其句柄对应的key一起记录到$curls数组中,保证返回的数据不乱序
            $curls[$handles[$ret["handle"]]] = $ret;
        }
    } while ( $running > 0 );
    foreach($curls as $key=>&$val){
        $val["content"] = curl_multi_getcontent($val["handle"]);
        curl_multi_remove_handle($mh, $val["handle"]); #移除curl句柄
    }
    curl_multi_close($mh); #关闭curl_multi句柄
    ksort($curls);
    return $curls;
}
 
#调用参数:
$keword = "360";
$page = 1;
$params = array();
for($i=0;$i<10;$i++){
    $params[$i] = array(
        "url"=>"http://www.so.com/s",
        "params"=>array('q'=>$keyword,'ie'=>"utf-8",'pn'=>($page-1)*10+$i+1)
    );
}
$ret = mfetch($params, 'GET');
print_r($ret);
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
可以使用多线程或者异步IO的方式来同时爬取多个页面数据。 使用多线程的方式,可以使用Python标准库中的`threading`模块。具体步骤如下: 1. 定义一个函数,用于爬取单个页面的数据。 2. 创建多个线程,每个线程从一个URL列表中获取一个URL,然后调用爬取函数进行爬取。 3. 使用`join()`方法等待所有线程执行完毕。 示例代码: ```python import threading import requests def get_data(url): # 爬取数据的函数 response = requests.get(url) data = response.json() return data urls = ['https://example.com/page1', 'https://example.com/page2', 'https://example.com/page3'] results = [] def worker(): # 线程函数 while True: try: url = urls.pop(0) except IndexError: # 如果URL列表为空,则退出线程 break else: result = get_data(url) results.append(result) threads = [] for i in range(3): t = threading.Thread(target=worker) threads.append(t) t.start() for t in threads: t.join() print(results) ``` 使用异步IO的方式,可以使用Python标准库中的`asyncio`模块。具体步骤如下: 1. 定义一个异步函数,用于爬取单个页面的数据。 2. 使用`asyncio.gather()`函数同时执行多个异步函数,并等待所有函数执行完毕。 示例代码: ```python import asyncio import aiohttp async def get_data(url): # 爬取数据的异步函数 async with aiohttp.ClientSession() as session: async with session.get(url) as response: data = await response.json() return data urls = ['https://example.com/page1', 'https://example.com/page2', 'https://example.com/page3'] loop = asyncio.get_event_loop() tasks = [get_data(url) for url in urls] results = loop.run_until_complete(asyncio.gather(*tasks)) print(results) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值