- 博客(4)
- 收藏
- 关注
原创 spark 搭建 及测试
(1)复制spark-defaults.conf.template,命名为spark-defaults.conf。复制spark-env.sh.template,命名为spark-env.sh。关闭spark集群?cd/usr/local/spark3/sbin/切换到spark的安装目录的sbin目录下,去启动。2.安装解压,到/usr/local/wanquan/目录下。6.分发spark的安装目录到hadoop2、hadoop3。2.安装解压,到/usr/local/single/目录下。
2024-03-13 18:13:28
1002
原创 jupyter 复习
环境: Anaconda需要python语法基础,对循环遍历,数据操作熟悉安装juypter 配置点 python 最好为ana 下时常查阅使用语法,常用英文自动补全功能,库齐全pandas:pandas是一个强大的数据分析工具,提供了丰富的数据处理和统计分析功能,包括数据清洗、数据整理、数据聚合、数据可视化等。NumPy:NumPy是Python的一个科学计算库,提供了高效的多维数组操作功能,可以进行各种统计分析,如平均值、中位数、方差、标准差等。
2024-03-06 21:32:44
248
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人