python spark进行大数据分析_基于Pycharm的Spark大数据分析

问题重述

能够读取给定的数据文件

出租车GPS数据文件(taxi_gps.txt)

北京区域中心坐标及半径数据文件(district.txt)

能够输出以下统计信息

A:该出租车GPS数据文件(taxi_gps.txt)包含多少量车?

B:北京每个城区的车辆位置点数(每辆车有多个位置点,允许重复)

开发环境:

开发软件 Pycharm

开发语言:Python

系统macOS Mojave

Spark版本 spark-2.1.1-bin-hadoop2.7

Scala版本Scala-2.10.4

Python版本Python3.7

实验原理

输出A:

以第一列统计车辆数,去重

输出B:

1.从(district.txt)文件中取第一个区的记录,获得其名称D1、中心坐标M(x0,y0)和半径r;

2.从(taxi_gps.txt)中获取第一条位置点记录,获得其坐标N(x1,y1)

3.利用欧几里得距离计算公式计算点M和N的距离dis,如果dis

4.继续从2开始循环,获得第二个位置记录;直至所有记录遍历完。

5.继续从1开始循环,获得第二个区的记录

数据说明

待统计区域中心数据格式

区域名称:北京城区拼音,例:haidianqu, chaoyangqu, dongchengqu

区域中心GPS经度:格式ddd.ddddddd,以度为单位。

区域中心GPS纬度:格式dd.ddddddd,以度为单位。

区域半径:格式dd,以km为单位

出租车GPS数据格式说明

数据以ASCII文本表示,以逗号为分隔符,以回车换行符(0x0D 0x0A)结尾。数据项及顺序:车辆标识、触发事件、运营状态、GPS时间、GPS经度、GPS纬度,、GPS速度、GPS方向、GPS状态

车辆标识:6个字符

触发事件:0=变空车,1=变载客,2=设防,3=撤防,4=其它

运营状态:0=空车,1=载客,2=驻车,3=停运,4=其它

GPS时间:格式yyyymmddhhnnss,北京时间

GPS经度:格式ddd.ddddddd,以度为单位。

GP

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是在Linux系统上配置Pycharm中使用Python Spark的步骤: 1. 安装Java和Spark:首先需要安装Java和Spark。如果您已经安装了它们,请跳过此步骤。如果没有安装,请执行以下命令: ``` sudo apt-get update sudo apt-get install openjdk-8-jdk wget https://downloads.apache.org/spark/spark-3.1.1/spark-3.1.1-bin-hadoop3.2.tgz tar -xvf spark-3.1.1-bin-hadoop3.2.tgz ``` 2. 配置环境变量:为了在Pycharm中使用Spark,需要将Spark的路径添加到您的环境变量中。在终端中运行以下命令: ``` export SPARK_HOME=/path/to/spark export PATH=$SPARK_HOME/bin:$PATH ``` 其中,`/path/to/spark` 是Spark的安装路径。如果您的Spark位于`/usr/local/spark`,则可以使用以下命令: ``` export SPARK_HOME=/usr/local/spark export PATH=$SPARK_HOME/bin:$PATH ``` 为了方便,您可以将这些命令添加到您的`.bashrc`文件中。 3. 安装PySpark:在Pycharm中使用Spark需要安装PySpark。您可以使用以下命令安装: ``` pip install pyspark ``` 4. 配置Pycharm:打开Pycharm并创建一个新项目。在项目设置中,选择Python解释器并确保已选择正确的Python版本。然后,单击“添加”按钮并添加以下行: ``` PYSPARK_PYTHON=/usr/bin/python3 PYSPARK_DRIVER_PYTHON=python3 ``` 然后,单击“环境变量”选项卡并添加以下行: ``` SPARK_HOME=/path/to/spark ``` 其中,`/path/to/spark` 是Spark的安装路径。如果您的Spark位于`/usr/local/spark`,则可以使用以下行: ``` SPARK_HOME=/usr/local/spark ``` 5. 导入pyspark:在Pycharm中导入pyspark非常简单。只需在项目中创建一个Python文件并添加以下代码: ``` from pyspark import SparkContext sc = SparkContext("local", "First App") ``` 这将创建一个本地Spark上下文并打印出一条消息。您可以运行此代码以确保一切正常。 希望这些步骤能够帮助您在Linux系统上配置Pycharm中使用Python Spark

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值