spark如何使用sqlite数据库的数据

19 篇文章 1 订阅
5 篇文章 0 订阅
  1. 安装sqlite3
    brew install sqlite

2.sqlite3 命令操作sqlite3 命令操作
sqlite3 china-poi.sqlite
在这里插入图片描述

.help 显示帮助
.quit 退出

sqlite> .output ChinaPOI.csv
sqlite> select * from ChinaPOI;
sqlite> .output stdout
sqlit>.quit

4.#给对应的表添加表头 默认分隔符号是|
vi ChinaPOI.csv
shopID|cityTelCode|cityName|name|address|tel|latitude|longitude|channel
:wq 保存退出.
[hadoop@hadoop-namenode3 server]$ head ChinaPOI.csv
shopID|cityTelCode|cityName|name|address|tel|latitude|longitude|channel
500001|021|上海|萨莎|东平路11号|021-64746628
64746170|31.20742|121.45477|food

500201|021|上海|富豪环球白玉兰西餐厅|衡山路516号富豪环球东亚酒店1楼|64155588-2756|31.20016|121.44867|food
[hadoop@hadoop-namenode3 server]$

5.上传数据到在hadoop 集群上

进入hadoop-namenode ( active )那台:这里我是hadoop-namenode3 是活动的。
hdfs dfs -mkdir /data/poi/
hdfs dfs -put ChinaPOI.csv /data/poi/

在这里插入图片描述

打开zeppelin 试试是否可以开始操作刚才导入的数据:
//val df = spark.read.format(“json”).load(“hdfs://10.20.2.3:8020/study/spark/Spark-The-Definitive-Guide/data/flight-data/json/2015-summary.json”)
val df = spark.read.format(“csv”).option(“header”, “true”).option(“delimiter”, “|”).option(“inferSchema”, “true”).load(“hdfs://10.20.2.3:8020/data/poi/ChinaPOI.csv”)
df.printSchema()
df.createOrReplaceTempView(“dfTable”)
df.head(5)

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

开心自由天使

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值