IPFS周报(12.31-1.6) 一项关于js-ipfs的并发测试~

周报周期:2018年12月31日——2019年1月6日。
我们从交易、社区、技术这几个层面搜集数据供大家参考。

概述

本周依然没有太多更新,但有一项关于js-ipfs的有趣测试,这项Perf测试证明了使用并行的方式来完成数据块的传输将大大提高文件的传输速度。以下是该测试中的一张图,显示了串行和不同数量并行下500MB文件的传输速率比较。原文还涉及了跳转方面的测试,有兴趣的朋友可以去github查看。
在这里插入图片描述

交易

上周Filecoin期货价格收于3.31 USD,周涨幅为10.7%(USD对价)。

在这里插入图片描述
社区

1、IPFS在社交平台的数据一览
平台
数据
Twitter
关注人数:21314,新增77
推文数:1929,新增-1
喜欢数:3559,新增-2
Google+
关注人数:212,新增1
YouTube
关注人数:1867,新增15
播放次数:43361,新增437
Reddit
关注人数:5268,新增43

2、Filecoin在社交平台的数据一览
平台
数据
Twitter
关注人数:24031,新增-32
推文数:338,新增0
喜欢数:312,新增0
Facebook
关注人数:1028,新增1
总赞数:880,新增-1
Reddit
关注人数:3153,新增-2

3、ProtocolLabs在社交平台的数据一览
平台
数据
Twitter
关注人数:10436,新增41
推文数:33,新增0
喜欢数:52,新增0
Facebook
关注人数:991,新增0
总赞数:857,新增-1
Linkedin
关注人数:1727,新增10

技术

1、Go-IPFS
当前版本为:v0.4.18
go-ipfs代码目前有9798个Commits更新,上周新增20个。
上周Master的Commits为18个。
Fork数量为1329,新增6个。
以下是其中比较重要的更新:
2019年1月3日
• 修复离线模式下的名称解析
• coreAPI/unixfs:在AddEvent中使用路径而不是原始的哈希值
2019年1月4日
• coreAPI:在测试中不对IPFSNode进行操作
• coreAPI:将测试转移到interface子包中
• coreAPI:从interface包中运行测试集
• coreAPI:在测试中减少失败报警
2019年1月5日
• 修复了ulimit文档中的一处错误
2019年1月7日
• 修复:如果url不可得的话,只显示哈希值
• 在网关信息上显示哈希值

2、JS-IPFS
当前版本为:v0.34.0-rc.0
js-ipfs代码目前有1684个Commits更新,上周新增1个。
上周Master的Commits更新数量为1个。
Fork数量为541,新增6个。
以下是其中比较重要的更新:
2019年1月3日
• chore:将webui 升级到v2.3.1

3、IPFS Cluster
当前版本为:v 0.7.0
IPFS Cluster代码目前有1212个Commits更新,上周新增8个。
上周Master的Commits更新数量为2个。
Fork数量为74。

4、IPFS社区孵化项目
当前的Commits分别为:
ipfs-desktop:514个,新增7个。
ipfs-webui:707个,新增6个。
ipfs-companion:1254个,新增20个。

—— [ END ] ——

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
我可以帮您解决关于Python的问题,但是您提出的问题涉及到数据处理和可视化,需要使用Python的相关库进行实现。以下是您提出的问题的解答: (1)读取 PRSA_ data 2010.1.1-2014.12.31.csx 文件并查看前3行、后2行代码: ```python import pandas as pd data = pd.read_csv('PRSA_data_2010.1.1-2014.12.31.csv') print(data.head(3)) # 查看前3行 print(data.tail(2)) # 查看后2行 ``` (2)删除列 DEWP、TEMP、PRES、cbwd、Iws、Is、Ir,并将剩余列用 pandas 数据预处理模块将缺失值丢弃处理,并导出到新的 csv 文件 pm25_ data 2010.1.1-2014.12.31.csv。 ```python data = data.drop(columns=['DEWP', 'TEMP', 'PRES', 'cbwd', 'Iws', 'Is', 'Ir']) data = data.dropna() # 删除缺失值 data.to_csv('pm25_data_2010.1.1-2014.12.31.csv', index=False) # 导出为新的 csv 文件 ``` (3)选择字段 pm2.5 大于300的所有数据集,导出为文本文件 pm25_hazardous_data_2010.1.1-2014.12.31.txt。 ```python hazardous_data = data[data['pm2.5'] > 300] hazardous_data.to_csv('pm25_hazardous_data_2010.1.1-2014.12.31.txt', sep=',', index=False, header=False, line_terminator='\n') ``` (4)将文本文件 pm25_hazardous_data_2010.1.1-2014.12.31.txt 转存到 Excel 文件 pm25_hazardous_data_2010.1.1-2014.12.31.xlsx。 ```python hazardous_data = pd.read_csv('pm25_hazardous_data_2010.1.1-2014.12.31.txt', header=None) hazardous_data.to_excel('pm25_hazardous_data_2010.1.1-2014.12.31.xlsx', index=False, header=False) ``` (5)重新读取文本文件 pm25_hazardous_data_2010.1.1-2014.12.31.txt,分别统计出现最多的 month、day、hour,并将 month、day、hour 的出现频次用柱状图显示,并将结果保存为 png 图片保存,分辨率为 400 dpi,png 图片命名分别为 pm25_hazardous_month_day_hour.png。 ```python import matplotlib.pyplot as plt hazardous_data = pd.read_csv('pm25_hazardous_data_2010.1.1-2014.12.31.txt', header=None, names=['year', 'month', 'day', 'hour', 'pm2.5']) month_count = hazardous_data['month'].value_counts() day_count = hazardous_data['day'].value_counts() hour_count = hazardous_data['hour'].value_counts() fig, (ax1, ax2, ax3) = plt.subplots(1, 3, figsize=(15, 5)) month_count.plot(kind='bar', ax=ax1, color='r') ax1.set_xlabel('Month') ax1.set_ylabel('Frequency') ax1.set_title('PM2.5 Hazardous Month Count') ax1.set_xticklabels(month_count.index, rotation=0) day_count.plot(kind='bar', ax=ax2, color='g') ax2.set_xlabel('Day') ax2.set_ylabel('Frequency') ax2.set_title('PM2.5 Hazardous Day Count') ax2.set_xticklabels(day_count.index, rotation=0) hour_count.plot(kind='bar', ax=ax3, color='b') ax3.set_xlabel('Hour') ax3.set_ylabel('Frequency') ax3.set_title('PM2.5 Hazardous Hour Count') ax3.set_xticklabels(hour_count.index, rotation=0) plt.savefig('pm25_hazardous_month_day_hour.png', dpi=400) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值