大数据
Sylvie小兔
这个作者很懒,什么都没留下…
展开
-
Task2 早高峰共享单车潮汐点的群智优化
Task2 早高峰共享单车潮汐点的群智优化不太会优化…原创 2021-02-25 01:26:00 · 195 阅读 · 0 评论 -
Task1人工智能创新挑战赛
Task1人工智能创新挑战赛在阿里云平台部署服务器设置容器镜像服务在XShell里配置docker并将baseline上传到docker虚拟控件内具体配置步骤可参考b站docker教程提交记录查看结果原创 2021-02-22 02:38:30 · 134 阅读 · 0 评论 -
Task1 早高峰共享单车潮汐点的群智优化
Task1:早高峰共享单车潮汐点的群智优化模型预测任务说明为更好地掌握早高峰潮汐现象的变化规律与趋势,参赛者需基于主办方提供的数据进行数据分析和计算模型构建等工作,识别出工作日早高峰 07:00-09:00潮汐现象最突出的 40 个区域,列出各区域所包含的共享单车停车点位编号名称,并提供计算方法说明及计算模型,为下一步优化措施提供辅助支撑, 城市公共自行车从业者将发生在早晚高峰时段共享单车“借不到、还不进”的问题称之为“潮汐”现象。本题涉及的“潮汐现象”聚焦“还不进”的问题,识别出早高峰共享单车最淤积原创 2021-02-20 01:40:26 · 268 阅读 · 1 评论 -
Task5 作者信息关联
Task5:作者信息关联data = [] #初始化#使用with语句优势:1.自动关闭文件句柄;2.自动显示(处理)文件读取数据异常with open("/home/aistudio/data/data67990/arxiv-metadata-oai-2019.json", 'r') as f: for idx, line in enumerate(f): d = json.loads(line) d = {'authors_parsed': d['au原创 2021-01-26 01:39:29 · 73 阅读 · 0 评论 -
论文代码统计Task3
# 导入所需的packageimport seaborn as sns #用于画图from bs4 import BeautifulSoup #用于爬取arxiv的数据import re #用于正则表达式,匹配字符串的模式import requests #用于网络连接,发送网络请求,使用域名获取对应信息import json #读取数据,我们的数据为json格式的import pandas as pd #数据处理,数据分析import matplotlib.pyplot as plt #画图工原创 2021-01-20 00:36:28 · 102 阅读 · 1 评论 -
论文数据统计Task2
Task2:论文作者统计# 同时添加如下代码, 这样每次环境(kernel)启动的时候只要运行下方代码即可: # Also add the following code, # so that every time the environment (kernel) starts, # just run the following code: import sys import jsonimport pandas as pdimport matplotlib.pyplot as pltsys.原创 2021-01-17 00:39:36 · 97 阅读 · 0 评论 -
论文数据统计Task1
论文数据统计Task1数据集具体代码实现导入所需包读入数据并查看数据大小显示数据的前五行进行数据预处理查看所有论文的种类特征处理筛选数据数据分析及可视化心得体会数据集链接:数据集运行环境:AI Studio具体代码实现导入所需包# 导入所需的packageimport seaborn as sns #用于画图from bs4 import BeautifulSoup #用于爬取arxiv的数据import re #用于正则表达式,匹配字符串的模式import requests #用于网络原创 2021-01-13 19:24:59 · 583 阅读 · 0 评论