我的服务器是腾讯云轻量应用服务器,2 核 2 G,已经内置了 docker, 配置大概如下:
ubuntu@VM-20-5-ubuntu
---------------------
OS: Ubuntu 22.04 LTS x86_64
Host: CVM 3.0
Kernel: 5.15.0-86-generic
Uptime: 1 hour, 9 mins
Packages: 759 (dpkg), 4 (snap)
Shell: bash 5.1.16
Resolution: 1024x768
Terminal: /dev/pts/4
CPU: AMD EPYC 7K62 (2) @ 2.595GHz
GPU: 00:02.0 Cirrus Logic GD 5446
Memory: 1287MiB / 1963MiB
由于规格比较小,所以并不能够撑起较大的服务,我之前按照这个1配置过一版,直接卡掉,重启才行
首先找个地方创建docker-compose.yml
,我的配置如下:
version: "2"
services:
master:
image: singularities/spark
command: start-spark master
hostname: master
ports:
- "6066:6066"
- "7070:7070"
- "8080:8080"
- "50070:50070"
worker:
image: singularities/spark
command: start-spark worker master
environment:
SPARK\_WORKER\_CORES: 1
SPARK\_WORKER\_MEMORY: 1g
links:
- master
主要是将woker
节点的内存改小了,毕竟服务器规格也小
2. 启动
主要就是这个命令
docker-compose up -d
3. 查看
得先去控制台防火墙添加一下 50070 和 8080 这两个端口
接着用云服务公网地址加上端口号就可以访问
4. 验证
先进入容器:
docker exec -it 0c7 /bin/bash
然后去 Spark 的安装位置:
cd /usr/local/spark-2.2.1
接着运行示例:
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://master:7077 \
--executor-memory 1g \
--total-executor-cores 1 \
./examples/jars/spark-examples_2.11-2.2.1.jar \
10
5. 其他
之前配置的时候,感觉机器内存小,所以启动容器的时候给worker
节点分配了200M
的内存,然后就寄了
spark
提交任务的时候似乎是有一个最小内存的限制,具体分析可以看这个3
由于这里分配的内存太小,所以触发了这个限制,导致任务无法运行
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数大数据工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上大数据开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)
大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新**
如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)
[外链图片转存中…(img-szlRtaUl-1712877106361)]