谷歌推送SEO的Python代码

        相信有很多互联网公司都有自己的网站,尤其做电商公司的,这里我先来给许多小白讲一下什么是SEO。

               SEO,即搜索引擎优化(Search Engine Optimization),是一种通过优化网站内容、结构和外部链接等因素,以提高网站在搜索引擎中的排名和可见性的过程。目标是使网站在搜索引擎结果页面(SERP)中获得更高的排名,从而增加有意向的用户的流量和访问量。说白了就是我们不管是在什么浏览器,百度也好谷歌也好,当我们想要去根据关键字搜寻自己想要的网站或者资料的时候,只要点击百度一下下边就会出现一大堆链接,翻到最下边可以看到有很多页,所以摆明越靠前的网站越容易收到用户的关注和访问,我们做SEO优化,就是让我们自己的网站排名更靠前,来获取到更多的访问量和流量,从而来获利。

        那么他是怎样来实现的呢,搜索引擎根据一系列算法来决定网站在搜索结果中的排名。SEO旨在理解这些算法,并根据它们的规则对网站进行优化,以提高其在搜索结果中的排名。

        SEO有许多优势。首先,它可以增加网站的流量和访问量。通过在搜索引擎中获得更高的排名,网站将吸引更多的有意向用户,从而增加流量和访问量。其次,SEO可以提高品牌的知名度。出现在搜索结果的前几页将使您的品牌更容易被用户发现,增强其知名度和认知度。此外,SEO的成本相对较低,可以持续为您带来长期流量。相比之下,付费广告等其他营销策略可能会花费更多的成本。最重要的是,SEO主要针对寻找特定信息、产品或服务的潜在客户、信息搜索者和地理位置搜索者。通过SEO,您可以吸引这些有意向的用户到您的网站上,从而增加转化率。

        我们去百度啊或者谷歌的官网,都能找到关于SEO的文档,通过API或者秘钥等的方式来取得网站的授权,从而在代码中实现,那么一下就是我的代码,这是根据Linux需要放到计划任务调整过之后的代码,如有需要可自行调整代码。当时使用之前肯定需要网站的json文件来授权。

        关注我,下期更新bing(必应)推送SEO的代码。
bing(必应)SEO优化Python代码

此代码的运行需要传参式的来运行,例如

Python3  GoogleSEP.py  1

import time
import logging
import json
import argparse
import httplib2
from oauth2client.service_account import ServiceAccountCredentials

def html_txt_logging(info):
    #新站点推送需要更换此处为新的log名称
    logger = logging.getLogger('booore.log')  
    #新站点推送需要更换此处为新的log名称
    fh = logging.FileHandler("/usr/local/googleSEO/logs/booore.log", encoding="utf-8", mode="a") 
    formatter = logging.Formatter("%(asctime)s - %(name)s-%(levelname)s %(message)s")
    fh.setFormatter(formatter)
    logger.setLevel(logging.INFO)
    if not logger.handlers:
        logger.addHandler(fh)
        logger.info(info)
    else:
        logger.info(info)

def update_question(url, type="URL_UPDATED"):
    #新站点推送需要更换此处为新的json名称
    JSON_KEY_FILE = "booore-com-72835fc2344e.json"  
    SCOPES = ["https://www.googleapis.com/auth/indexing"]
    ENDPOINT = "https://indexing.googleapis.com/v3/urlNotifications:publish"
    credentials = ServiceAccountCredentials.from_json_keyfile_name(JSON_KEY_FILE, scopes=SCOPES)
    http = credentials.authorize(httplib2.Http())
    content = {}
    content['url'] = url
    content['type'] = type
    json_content = json.dumps(content)
    response, content = http.request(ENDPOINT, method="POST", body=json_content)
    return response, content

def read_urls_from_text(file_path):
    with open(file_path, 'r', encoding='utf-8') as file:
        urls = file.readlines()
    # 去除每个URL前后的空白字符
    urls = [url.strip() for url in urls]
    return urls

def main():
    parser = argparse.ArgumentParser(description='GSC URL 处理脚本')
    parser.add_argument('type', choices=['0', '1'], help='处理类型,0是删除,1是更新')
    args = parser.parse_args()

    # 指定默认文件路径
    #新站点推送需要更换此处为新的url存放路径名称
    default_file_path = '/www/wwwroot/zhanqun.qkyai.cn/public/pushGoogle/booore.com' 

    urls = read_urls_from_text(default_file_path)

    if args.type == '1':
        print('正在读取url...')
        print('读取完毕,正在更新地址...')
        for url in urls:
            response, content = update_question(url)
            html_txt_logging('update status:{};URl:{}'.format(response['status'], url))
            time.sleep(5)

    elif args.type == '0':
        print('正在读取url...')
        print('读取完毕,正在删除地址...')
        for url in urls:
            response, content = update_question(url, type="URL_DELETED")
            html_txt_logging('delete status:{};URl:{}'.format(response['status'], url))
            time.sleep(5)

    print('<-----处理完毕,查看日志可以浏览详细处理结果----->')

if __name__ == "__main__":
    main()

  • 14
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Sam_hrk

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值