python实现管理chrome浏览器的书签管理(程序员の怒火之每次电脑重启打开chrome浏览器都收藏页都有京东、天猫等收藏页)

python实现管理chrome浏览器的书签管理(程序员の怒火之每次电脑重启打开chrome浏览器都收藏页都有京东、天猫等收藏页)

  • 问题简述:每次电脑重启打开chrome浏览器都收藏页都有京东、天猫等收藏页,删都删不干净,看着心烦
  • 使用方法:有python编译器的朋友创个python文件,直接双击打开这个文件就好,不要直接打开chrome.exe,不说太多,直接上代码
import json
import os

if __name__ == "__main__":
    #找到这个Bookmarks文件的位置,一般是固定的
    filename = r"C:\Users\Administrator\AppData\Local\Google\Chrome\User Data\Default\Bookmarks"

    #找到chrome.exe
    exe = r"C:\Program Files\Google\Chrome\Application\chrome.exe"
    with open(filename, "r", encoding='utf-8_sig') as data_file:
        bookmark_data = json.load(data_file)
        
    #因为每次重启前面都会有4个神奇的收藏页,所以判定一个就直接把那4个给删了
    if bookmark_data['roots']['bookmark_bar']['children'][0]['name'] == '京东':
        bookmark = bookmark_data
        bookmark['roots']['bookmark_bar']['children'] = bookmark_data['roots']['bookmark_bar']['children'][4:]

        with open(filename, "w", encoding='utf-8_sig') as data_file:
            json.dump(bookmark,data_file,sort_keys=True,indent =4,ensure_ascii=False)

    #打开谷歌浏览器
    os.startfile(exe)
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,您可以使用Python中的requests和BeautifulSoup库来爬取boss直聘中的职位信息。以下是一个简单的爬虫代码示例: ```python import requests from bs4 import BeautifulSoup url = 'https://www.zhipin.com/job_detail/?query=程序员&city=101010100&industry=&position=' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'html.parser') job_list = soup.find('div', {'class': 'job-list'}) for job in job_list.find_all('div', {'class': 'job-primary'}): job_name = job.find('div', {'class': 'job-title'}).text.strip() company_name = job.find('div', {'class': 'company-text'}).find('h3').text.strip() salary = job.find('span', {'class': 'red'}).text.strip() print(job_name, company_name, salary) ``` 这个示例代码中,我们首先用requests库的get方法请求boss直聘的网,并使用BeautifulSoup库将网的HTML代码解析成可操作的对象soup。 接着,我们使用soup对象的find方法找到职位信息所在的div元素,再用find_all方法找到所有的职位信息元素。 对于每一个职位信息元素,我们再使用find方法分别找到职位名称、公司名称、薪资等信息,并将其打印出来。 需要注意的是,我们在请求网时加上了一个headers参数,用来模拟浏览器发送的请求,避免被网站识别为爬虫并被禁止访问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值