04-ArcGIS Python API学习记录--arcgis.geoanalytics模块

     ArcGIS GeoAnalytics Server采用分布式计算,解决了单机无法处理和分析大数据的问题,主要提供以下五类工具:

  1. analyze_patterns module:calculate_density、find_hot_spots、create_space_time_cube
  2. find_locations module:find_similar_locations、detect_incidents、geocode_locations
  3. manage_data module:copy_to_data_store、calculate_fields
  4. summarize_data module:aggregate_points、join_features、reconstruct_tracks、summarize_attributes、summarize_within
  5. use_proximity module:create_buffers 

       基于这些工具,可以实现大数据的计算密度、查找热点、点聚合、链接要素、轨迹追踪、属性汇总、范围内汇总、创建缓冲区,以及数据的拷贝。大数据分析的结果将会存储在datastore的时空存储中,结果可以与要素图层相结合,进行进一步的空间分析。

 1. 环境准备

           需要有正常的GA环境,才可以使用arcgis.geoanalytics模块

2. 简单实用

1. 连接portal

2.  验证环境中ga是否可用

3. 查找环境中的大数据文件共享

(1)检索,可以发现arcgis用户中共有1个大数据文件共享

(2)查看大数据文件共享中的大数据文件

 4. 用earthquakes数据进行聚合,对应于ga的聚合点工具

 (1)执行聚合点工具

(2) 可以在server manager页面查看执行情况

(3) 将结果可视化

3. 代码附录 

1. 使用python api

# 导入需要的包
from arcgis.gis import GIS
import arcgis.geoanalytics

#连接portal
gis = GIS("portal地址", "username", "password", verify_cert= False)

#检测环境是否有ga
arcgis.geoanalytics.is_supported()

#检索环境中的大数据文件共享,支持共享文件夹,HDFS,云存储等
search_result = gis.content.search("", item_type = "big data file share")

#查看大数据文件共享中的大数据
search_result[0].layers

#使用ga中的数据,以聚合点为例
from arcgis.geoanalytics.summarize_data import aggregate_points
earthquakes = search_result[0].layers[0]
agg_result = aggregate_points(earthquakes, bin_size = 1, bin_size_unit= "kilometers", output_name = "pythonapitest")

2. 涉及到ga,这里就增加一部份,通过rest api去使用ga的工具

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

炒菜不加盐

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值