- 博客(2)
- 收藏
- 关注
原创 开启pyspark出现ERROR SparkContext: Error initializing SparkContext. (hadoop已经开启)
基于在配置完spark存放历史日志的文件后开启spark报错的error修复
2023-11-14 11:07:19 542 1
原创 在jupyter notebook 上使用Matlab(Win版)
当前最新的anaconda(2023.3.1)的python版本为3.10,而matlab(2018b)只在3.6版本以下可以安装。4.执行命令: pip install matlab_kernel。(创建python版本为3.6的matlab 环境)3.启动matlab安装包中setup.py文件。2.激活所创建的环境。
2023-08-23 16:19:53 697
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人