自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 ROE

来源:http://baostock.com/baostock/images/6/64/%E5%9F%BA%E7%A1%80%E7%9F%A5%E8%AF%86%E4%B8%8D%E7%AE%80%E5%8D%95%E4%B9%8B%E5%87%80%E8%B5%84%E4%BA%A7%E6%94%B6%E7%9B%8A%E7%8E%87.pdf 里面有2个错误,改正如下: df2 = pd.DataFrame({‘mean’: series_mean, ‘std’: series_std}, column

2020-07-23 17:00:26 138

原创 爬后台json数据

来源: https://towardsdatascience.com/a-single-line-of-python-code-scraping-dataset-from-webpages-c9d2a8805d61 大概流程: F12,选network,确认已记录,刷新带数据的网页。确认数据加载完毕可按STOP停止记录。 在preview里找数据表中的数据请示。 在header里REQUEST URL. 用浏览器打开找到的正确的地址,可看到JSON. 如果简单的网页则是直接JSON头层即.

2020-06-03 21:49:32 212

原创 抓aiyadu的电子书链接代码,调试后版本

# -*- coding: utf-8 -*- import scrapy from scrapy.linkextractors import LinkExtractor from scrapy import Item,Field from ..items import BookItem class BooksSpider(scrapy.Spider): name = 'books' allowed_domains = ['aiyadu.com'] # start_urls = [.

2020-05-23 06:52:04 640

原创 pyecharts数据类型

import pandas as pd1 import warnings from pyecharts import options as opts from pyecharts.charts import Bar # warnings.filterwarnings('ignore') df = pd1.read_excel('mcase0503.xlsx') print(df.head()) ...

2020-05-05 22:55:57 1018

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除