爬取指定网页的所有URL

#coding:utf-8
# 网页url采集爬虫,给定网址,以及存储文件,将该网页内全部网址采集下,可指定文件存储方式
import requests,time
from lxml import etree
"""
    url:给定的url
    save_file_name:为url存储文件
"""
def Redirect(url):
    try:
        res = requests.get(url,timeout=10)
        url = res.url
    except Exception as e:
        print("4",e)
        time.sleep(1)
    return url

def requests_for_url(url, save_file_name, file_model):
    headers = {
        'pragma': "no-cache",
        'accept-encoding': "gzip, deflate, br",
        'accept-language': "zh-CN,zh;q=0.8",
        'upgrade-insecure-requests': "1",
        'user-agent': "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36",
        'accept': "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8",
        'cache-control': "no-cache",
        'connection': "keep-alive",
        }
    try:
        response = requests.request("GET", url, headers=headers)
        selector = etree.HTML(response.text, parser=etree.HTMLParser(encoding='utf-8'))
    except Exception as e:
        print ("页面加载失败", e)

    return_set = set()
    with open(save_file_name,file_model) as f:
        try:
            context = selector.xpath('//a/@href')
            for i in context:
                try:
                    if i[0] == "j":
                        continue
                    if i[0] == "/":
                        #print i
                        i = url+i.replace("/","");
                    f.write(i)
                    f.write("\n")
                    return_set.add(i)
                    #print(len(return_set))
                    print(len(return_set),context[0],i)
                except Exception as e:
                    print("1",e)
        except Exception as e:
            print("2",e)
    return return_set

if __name__ == '__main__':
     # 网页url采集爬虫,给定网址,以及存储文件,将该网页内全部网址采集下,可指定文件存储方式
     url = "http://baby.sina.com.cn/kid/"
     save_file_name = "url.txt"
     return_set = requests_for_url(url,save_file_name,"a") #“a”:追加
     print(len(return_set))

 

要在PHP中爬取指定网页的JSON数据,可以使用以下步骤: 1. 首先,你需要使用`file_get_contents`函数来获取网页的内容。这个函数可以接受一个URL参数,用于指定要获取的网页。你可以像这样调用该函数:`$response = file_get_contents($url);` 2. 接下来,你需要检查是否成功获取了网页内容。你可以使用条件语句来判断`$response`的值是否为`false`,如果是,则表示获取失败。否则,表示获取成功。你可以像这样检查:`if ($response !== false) { // 获取成功 } else { // 获取失败 }`。 3. 如果获取成功,你可以使用`json_decode`函数来解析JSON数据。你可以将`$response`作为参数传递给`json_decode`函数,然后将解析后的结果保存在一个变量中。例如:`$data = json_decode($response);` 4. 最后,你可以根据需要使用解析后的JSON数据进行后续操作。你可以访问`$data`中的各个属性和值,进行数据提取或其他处理。 需要注意的是,爬取网页数据可能涉及到访问权限和服务器限制。请确保你的爬虫行为符合法律和网站的规定,并尊重网站的隐私政策和使用条款。 总结: 1. 使用`file_get_contents`函数获取网页内容,将结果保存在`$response`变量中。 2. 检查`$response`是否为`false`,以确定是否成功获取网页内容。 3. 使用`json_decode`函数解析JSON数据,将结果保存在一个变量中。 4. 根据需要使用解析后的JSON数据进行后续操作。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [使用PHP从网页获取JSON数据](https://blog.csdn.net/weixin_29011667/article/details/115116072)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值