Github 2024-08-20 Python开源项目日报 Top10

根据Github Trendings的统计,今日(2024-08-20统计)共有10个项目上榜。根据开发语言中项目的数量,汇总情况如下:

开发语言 项目数量
Python项目 10
TypeScript项目 1
Vue项目 1
C项目 1

OpenBB:免费开源金融平台

  • 创建周期:1339 天
  • 开发语言:Python
  • 协议类型:Other
  • Star数量:28156 个
  • Fork数量:2686 次
  • 关注人数:28156 人
  • 贡献人数:215 人
  • Open Issues数量:40 个
  • Github地址:https://github.com/OpenBB-finance/OpenBB.git
  • 项目首页: https://openbb.co

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

OpenBB是第一个免费且完全开源的金融平台,提供各种投资选择,并提供扩展功能以增强用户体验。它还拥有一个AI金融分析师代理和专业的AI金融终端。

Freqtrade: 免费开源的加密货币交易机器人

  • 创建周期:2634 天
  • 开发语言:Python
  • 协议类型:GNU General Public License v3.0
  • Star数量:27144 个
  • Fork数量:5865 次
  • 关注人数:27144 人
  • 贡献人数:290 人
  • Open Issues数量:50 个
  • Github地址:https://github.com/freqtrade/freqtrade.git
  • 项目首页: https://www.freqtrade.io
  • 11
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
首先需要了解得物网站的数据结构和爬取方式,得物网站比较复杂,需要使用Selenium+BeautifulSoup进行爬取。 以下是一个简单的得物爬虫Python代码实现(注:仅供学习参考,请勿用于商业用途): ```python import time from selenium import webdriver from selenium.webdriver.chrome.options import Options from bs4 import BeautifulSoup options = Options() options.add_argument('--no-sandbox') # 解决DevToolsActivePort文件不存在报错的问题 options.add_argument('window-size=1920x3000') # 指定浏览器分辨率 options.add_argument('--disable-gpu') # 谷歌文档提到需要加上这个属性来规避bug options.add_argument('--hide-scrollbars') # 隐藏滚动条, 应对一些特殊页面 options.add_argument('blink-settings=imagesEnabled=false') # 不加载图片, 提升速度 options.add_argument('--headless') # 无界面 driver = webdriver.Chrome(options=options) url = 'https://www.dewu.com/' driver.get(url) # 等待页面加载完成 time.sleep(3) # 模拟鼠标点击,展开商品列表 driver.find_element_by_xpath('//div[text()="全部商品"]').click() # 等待页面加载完成 time.sleep(3) # 获取页面源代码 html = driver.page_source # 解析页面 soup = BeautifulSoup(html, 'html.parser') # 获取商品列表 items = soup.find_all('div', {'class': 'item-card'}) for item in items: # 获取商品标题 title = item.find('div', {'class': 'title'}).text.strip() # 获取商品价格 price = item.find('div', {'class': 'price'}).text.strip() # 获取商品链接 link = item.find('a', {'class': 'item-link'})['href'] print(title, price, link) # 关闭浏览器 driver.quit() ``` 这里的代码仅仅是一个简单的爬虫示例,如果想要更加深入地了解得物网站的数据结构和爬取方式,需要结合具体的需求进行更加详细的分析和实现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

老孙正经胡说

创作不易,感谢您的关注

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值