相信有很多互联网公司都有自己的网站,尤其做电商公司的,这里我先来给许多小白讲一下什么是SEO。
SEO,即搜索引擎优化(Search Engine Optimization),是一种通过优化网站内容、结构和外部链接等因素,以提高网站在搜索引擎中的排名和可见性的过程。目标是使网站在搜索引擎结果页面(SERP)中获得更高的排名,从而增加有意向的用户的流量和访问量。说白了就是我们不管是在什么浏览器,百度也好谷歌也好,当我们想要去根据关键字搜寻自己想要的网站或者资料的时候,只要点击百度一下下边就会出现一大堆链接,翻到最下边可以看到有很多页,所以摆明越靠前的网站越容易收到用户的关注和访问,我们做SEO优化,就是让我们自己的网站排名更靠前,来获取到更多的访问量和流量,从而来获利。
那么他是怎样来实现的呢,搜索引擎根据一系列算法来决定网站在搜索结果中的排名。SEO旨在理解这些算法,并根据它们的规则对网站进行优化,以提高其在搜索结果中的排名。
SEO有许多优势。首先,它可以增加网站的流量和访问量。通过在搜索引擎中获得更高的排名,网站将吸引更多的有意向用户,从而增加流量和访问量。其次,SEO可以提高品牌的知名度。出现在搜索结果的前几页将使您的品牌更容易被用户发现,增强其知名度和认知度。此外,SEO的成本相对较低,可以持续为您带来长期流量。相比之下,付费广告等其他营销策略可能会花费更多的成本。最重要的是,SEO主要针对寻找特定信息、产品或服务的潜在客户、信息搜索者和地理位置搜索者。通过SEO,您可以吸引这些有意向的用户到您的网站上,从而增加转化率。
我们去百度啊或者谷歌的官网,都能找到关于SEO的文档,通过API或者秘钥等的方式来取得网站的授权,从而在代码中实现,那么一下就是我的代码,这是根据Linux需要放到计划任务调整过之后的代码,如有需要可自行调整代码。当时使用之前肯定需要网站的json文件来授权。
关注我,下期更新bing(必应)推送SEO的代码。
bing(必应)SEO优化Python代码
此代码的运行需要传参式的来运行,例如
Python3 GoogleSEP.py 1
import time
import logging
import json
import argparse
import httplib2
from oauth2client.service_account import ServiceAccountCredentials
def html_txt_logging(info):
#新站点推送需要更换此处为新的log名称
logger = logging.getLogger('booore.log')
#新站点推送需要更换此处为新的log名称
fh = logging.FileHandler("/usr/local/googleSEO/logs/booore.log", encoding="utf-8", mode="a")
formatter = logging.Formatter("%(asctime)s - %(name)s-%(levelname)s %(message)s")
fh.setFormatter(formatter)
logger.setLevel(logging.INFO)
if not logger.handlers:
logger.addHandler(fh)
logger.info(info)
else:
logger.info(info)
def update_question(url, type="URL_UPDATED"):
#新站点推送需要更换此处为新的json名称
JSON_KEY_FILE = "booore-com-72835fc2344e.json"
SCOPES = ["https://www.googleapis.com/auth/indexing"]
ENDPOINT = "https://indexing.googleapis.com/v3/urlNotifications:publish"
credentials = ServiceAccountCredentials.from_json_keyfile_name(JSON_KEY_FILE, scopes=SCOPES)
http = credentials.authorize(httplib2.Http())
content = {}
content['url'] = url
content['type'] = type
json_content = json.dumps(content)
response, content = http.request(ENDPOINT, method="POST", body=json_content)
return response, content
def read_urls_from_text(file_path):
with open(file_path, 'r', encoding='utf-8') as file:
urls = file.readlines()
# 去除每个URL前后的空白字符
urls = [url.strip() for url in urls]
return urls
def main():
parser = argparse.ArgumentParser(description='GSC URL 处理脚本')
parser.add_argument('type', choices=['0', '1'], help='处理类型,0是删除,1是更新')
args = parser.parse_args()
# 指定默认文件路径
#新站点推送需要更换此处为新的url存放路径名称
default_file_path = '/www/wwwroot/zhanqun.qkyai.cn/public/pushGoogle/booore.com'
urls = read_urls_from_text(default_file_path)
if args.type == '1':
print('正在读取url...')
print('读取完毕,正在更新地址...')
for url in urls:
response, content = update_question(url)
html_txt_logging('update status:{};URl:{}'.format(response['status'], url))
time.sleep(5)
elif args.type == '0':
print('正在读取url...')
print('读取完毕,正在删除地址...')
for url in urls:
response, content = update_question(url, type="URL_DELETED")
html_txt_logging('delete status:{};URl:{}'.format(response['status'], url))
time.sleep(5)
print('<-----处理完毕,查看日志可以浏览详细处理结果----->')
if __name__ == "__main__":
main()