最近发现,通过114cha.com分享的网站内容,用QQ打开网站链接时提示“当前网页非官方页面”解决办法

文章讲述了作者在使用QQ分享自己网站链接时遇到的“当前网页非官方页面”提示问题,以及如何通过腾讯的网址拦截申诉流程来恢复访问。尽管申诉后可能会反复被封,但作者建议持续申诉作为应对方法,同时提到获得腾讯绿标认证的选项,但认为其成本较高。
摘要由CSDN通过智能技术生成

最近在给用户提供帮助时,在QQ中分享给用户自己网站(http://www.114cha.com)的链接内容,用QQ打开网站链接时提示“当前网页非官方页面”如图:

    

经常帮助大家解决问题,将一些心得和相关解决办法写在自己站内的做法,是不能再尴尬的提示了。

网上搜索了一下,遇到此情况的站长不在少数,我也随机对自己的网站进行查看,有此问题的也不在少数,一开始我认为的的网站有问题,下面是我申诉的过程。

解决办法:

首先我们点击“申请恢复访问”或者直接访问“

https://urlsec.qq.com/check.html”,进入网址之后我们点击“网页拦截申诉”,为什么不选择“在线网址检测”因为即使我们选择了,检查的结果也可以是“暂未发现风险”的提示,如图:

 

接下来输入 自己的网站的链接,如:www.114cha.com  如果提示类似:

 

说明你已经被拦截了,

填写完成之后提交,点击提交之后可能有延迟或者多点击几下,没事的,接着会看见页面提示“提交成功”,我们会在三个工作日内分析处理,并且尽快给您答复 网站安心计划提供网站恶意URL查询、网址拦截通知服务,如需及时了解网站拦截情况,具体详情请访问https://lrsm.urlsec.qq.com/lrsm#/anxin的信息,也会收到腾讯安全网址给我们发来的邮件,如图:

 

 

这您以为就结束了么?哪有那么简单,之前的朋友可能知道,我以前的域名是有腾讯绿标的,以至于我们现在前脚提交申诉,后续就给你解封,然后明天继续封,所以我们能做的就是一天已申诉,一申诉就解封,如此循环,没有办法,谁叫QQ不是咱自家的呢,就算自家的TX也不放过。还真就是应了那句“你以为你以为的就是你以为的”,哎,忍吧,不然就得花钱做认证,一年大几千问题是没有实际意义,人在屋檐下不得不低头,如果您有更好的申诉方案可以告诉我,有惊喜哦,好了有问题留言反馈吧!

本文为博主原创文章,转载请标明。  https://114cha.com/news/147/705.htmlicon-default.png?t=N6B9https://114cha.com/news/147/705.html

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我可以帮你实现这个任务。需要使用Python中的requests、BeautifulSoup和pandas库。 首先,我们需要向该网站发送请求,获取网页源代码。代码如下: ```python import requests url = "https://chepai.911cha.com/" response = requests.get(url) html = response.text ``` 接下来,我们需要使用BeautifulSoup库解析网页源代码,找到包含车牌号信息的表格。代码如下: ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html, "html.parser") table = soup.find("table", {"class": "table"}) ``` 现在,我们已经找到了包含车牌号信息的表格。接下来,我们需要从表格中提取数据并保存到Excel文件中。代码如下: ```python import pandas as pd data = [] rows = table.find_all("tr") for row in rows: cols = row.find_all("td") cols = [col.text.strip() for col in cols] data.append(cols) df = pd.DataFrame(data) df.to_excel("car_plate_numbers.xlsx", index=False, header=False) ``` 完整代码如下: ```python import requests from bs4 import BeautifulSoup import pandas as pd url = "https://chepai.911cha.com/" response = requests.get(url) html = response.text soup = BeautifulSoup(html, "html.parser") table = soup.find("table", {"class": "table"}) data = [] rows = table.find_all("tr") for row in rows: cols = row.find_all("td") cols = [col.text.strip() for col in cols] data.append(cols) df = pd.DataFrame(data) df.to_excel("car_plate_numbers.xlsx", index=False, header=False) ``` 运行代码后,程序会在当前目录下生成一个名为“car_plate_numbers.xlsx”的Excel文件,其中包含全国各地车牌号信息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值