python交互式和文件式区别知乎_初识Bokeh | 交互式数据可视化在Python中的实现

小序

陈坤在《鬼水瓶录》中说,也许死是一种生,那么结束就是一种新的开始。

OK,不卖关子了,今天开始,想跟大家一起学习一个新的数据可视化工具。

这个过程很多事情我都没办法预料,可能会有很多无聊的文档翻译,也可能会摸索到一些有趣的未知,所以,欢迎一起。

Bokeh

Bokeh是一个针对现代Web浏览器呈现功能的Python交互式可视化库。它的目标是像D3.js一样用新奇的图表来给数据一个漂亮、简洁的解释,即便是非常大型的或者流数据也能保持高性能的交互。Bokeh可以帮助大家快速轻松地创建交互图,仪表板和数据应用。

(简单来讲,Bokeh就是Python中一个专门用来做交互式可视化图表的一个库,虽然没有像D3.js一样强大,但上手会相对简单一些。)

Jupyter

为了更好地理解,我们简单看个例子。

关于操作软件,推荐Jupyter Notebook(可以先安装Python,再安装Anaconda,开始菜单运行Anaconda文件夹下的Jupyter Notebook即可打开)。

下面,我们直接在Jupyter看代码运行一下这个示例。

举个栗子

我们以第一个小图为例看一下,代码如下。

import numpy as np

from bokeh.plotting import figure, show, output_file

N = 500

x = np.linspace(0, 10, N)

y = np.linspace(0, 10, N)

xx, yy = np.meshgrid(x, y)

d = np.sin(xx)*np.cos(yy)

p = figure(x_range=(0, 10), y_range=(0, 10))

# must give a vector of image data for image parameter

p.image(image=[d], x=0, y=0, dw=10, dh=10, palette="Spectral11")

output_file("image.html", title="image.py example")

show(p) # open a browser

具体的代码就先不解释了,运行后会打开一个新的浏览器页面展示结果。

运行结果:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是Python爬取数据的代码实现,其使用了八爪鱼爬虫工具和数据预处理库pandas: ```python import requests import json import pandas as pd from octopus import Octopus # 设置请求头信息 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 Edge/16.16299' } # 构造请求url def get_url(keyword, offset): url = 'https://www.zhihu.com/api/v4/search_v3?t=general&q={}&correction=1&offset={}&limit=20&lc_idx=0&show_all_topics=0&search_hash_id='.format(keyword, offset) return url # 爬取数据并保存为json文件 def crawl_data(keyword): otto = Octopus( concurrency=8, auto_start=True, expiration_in_seconds=120, raise_all_exceptions=True, worker_lifespan_in_seconds=120 ) result = [] for i in range(0, 100, 20): url = get_url(keyword, i) otto.enqueue(get_data, url) otto.wait() for res in otto.results(): result += res with open('zhihu.json', 'w', encoding='utf-8') as f: json.dump(result, f, ensure_ascii=False) # 解析json文件并使用pandas进行数据预处理 def process_data(): with open('zhihu.json', 'r', encoding='utf-8') as f: data = json.load(f) results = [] for item in data: result = {} result['问题'] = item['highlight']['title'] result['链接'] = 'https://www.zhihu.com/question/{}'.format(item['object']['question']['id']) result['答案'] = item['highlight']['description'] results.append(result) df = pd.DataFrame(results) df.to_excel('zhihu.xlsx', index=False) # 获取数据 def get_data(url): response = requests.get(url, headers=headers) data = response.json()['data'] result = [] for item in data: if item['object']['type'] == 'answer': result.append(item) return result if __name__ == '__main__': crawl_data('Python') process_data() ``` 此代码实现了爬取乎关于“Python”的数据,并将数据保存成json文件,再使用pandas进行数据预处理,最终将结果保存成Excel文件。你可以根据自己的需求修改关键词以及保存的文件

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值