GIS服务端
gis服务端的一些工具使用
GAMESLI-GIS
web3D 图形学爱好者 BJFU GIS硕
展开
-
GIS大数据资料
gis spark原创 2023-05-22 09:26:46 · 91 阅读 · 0 评论 -
cpp语法记录
cpp原创 2023-05-04 13:42:22 · 403 阅读 · 0 评论 -
【geoserver】扩展开发
https://zhuanlan.zhihu.com/p/87894011原创 2021-10-08 10:21:10 · 334 阅读 · 0 评论 -
【jts】入门及资料篇
gis原创 2022-03-16 15:49:15 · 1047 阅读 · 0 评论 -
【geotool】geometry操作
1.intersectionpackage com.example.geotooltest;import org.junit.Test;import org.locationtech.jts.geom.Geometry;import java.io.IOException;public class GeometryUtil { @Test public void intersectionTest() throws IOException { DataType原创 2022-02-25 10:48:04 · 412 阅读 · 0 评论 -
【geotool】wkt、geojson、geometry互相转换
POM<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4原创 2022-02-25 10:43:23 · 4207 阅读 · 0 评论 -
【GDAL】 java环境配置---第一篇
第一篇---java环境配置流程1.下载编译后的gdal2.jar包和dll包配置2.1 拷贝dll到jre目录2.2 拷贝dll到项目根目录2.3 项目引jar包(此处没有使用maven的gdal,还是确保版本一直使用下载的jar包)流程1.下载编译后的gdal下载链接:https://www.gisinternals.com/release.php测试版本为 release-1800-x64-dev.zip2.jar包和dll包配置2.1 拷贝dll到jre目录将解压后\release-1原创 2021-06-19 12:19:13 · 1226 阅读 · 2 评论 -
【spark使用】1.SparkContext、SparkSession
初始化SparkContextSparkConf conf = new SparkConf().setMaster("local").setAppName("My App");JavaSparkContext sc = new JavaSparkContext(conf);初始化SparkSessionSparkSession sparkSession = SparkSession.builder().master("local[*]").appName("handle data").getOrC原创 2022-03-10 17:42:53 · 2619 阅读 · 0 评论 -
【spark使用】2.向Spark算子中传递函数方式
介绍filter的例子例1:Python 版本筛选的例子lines = sc.textFile("README.md")pythonLines = lines.filter(lambda line: "Python" in line)例2:Scala 版本筛选的例子val lines = sc.textFile("README.md") // 创建一个叫lines的RDDval pythonLines = lines.filter(line => line.contains("Pyth原创 2022-03-10 17:12:12 · 2975 阅读 · 0 评论 -
【spark使用】3.转换算子
mapString转为Tuple2<String, Integer>public class test { public static void main(String[] args) { SparkConf conf = new SparkConf().setAppName("jiangtao_demo").setMaster("local"); JavaSparkContext jsc = new JavaSparkContext(conf);原创 2022-03-10 17:33:28 · 1748 阅读 · 0 评论 -
【spark使用】4. Dataset转换算子使用
spark java原创 2022-03-17 15:44:59 · 3560 阅读 · 0 评论 -
【spark使用】5.一些配置参数的理解
1.每个stage的task数量由什么控制理论上:每一个stage下有多少的分区,就有多少的task,task的数量就是我们任务的最大的并行度,task的数量本质上是由RDD的分区数决定的,一个分区对应一个task。分区数的确定和改动有以下几种情况:1.由带partitioner的数据源确定,比如数据来自hdfs,则根据hdfs的数据分片方式确定分区数;如果数据来自kafka,则有topic的分区数确定2.不带partitioner的数据源,如local下测试使用本机csv数据,其分区数由参数spa原创 2022-04-14 10:45:31 · 1486 阅读 · 0 评论