![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
linux
Nancy_张
这个作者很懒,什么都没留下…
展开
-
解决OSError: /root/anaconda3/bin/../lib/libstdc++.so.6: version `GLIBCXX_3.4.20‘ not found问题
背景描述:在安装opencc模块时报错OSError: /root/anaconda3/bin/…/lib/libstdc++.so.6: version `GLIBCXX_3.4.20’ not found问题,网上搜索解决方案,发现这个问题经常出现,它是c相关的一些依赖库的文件,常在下载模块时报错,归根结底是版本不对,用了很多方法,最终在官网上找到了解决办法。解决方法:conda install -c anaconda libgcc #安装最新版本,最快速有效的解决方案以下是我尝试过,但对我无原创 2020-09-11 20:54:55 · 1869 阅读 · 1 评论 -
如何在anaconda下设置代理?
背景描述:由于公司设置了内网,要下载什么模块时只能通过代理。在pip下载模块时,我们可以使用pip install xxx --proxy=http://username:password@ip:port的方式;而用conda下载模块时就没有相应的–proxy选项了,那么该如何设置conda下的代理呢?解决方法:首先,我们要找到.condarc文件,这是conda在运行期间的配置文件,值得注意的是,该文件如果之前没有运行过相关conda config命令的话是不存在的,执行如下命令:conda co原创 2020-09-11 20:40:17 · 9763 阅读 · 0 评论 -
解决python3和jupyter-notebook中的报错No module named pyspark和No module named ‘py4j’
背景描述:在centos7–CDH6下配置了spark2.4和hive2.3,在linux-shell中输入pyspark可以正常启动,执行下列语句可正常显示from pyspark.sql import SparkSessionspark = SparkSession.builder.appName("Python Spark SQL Hive integration example").enableHiveSupport().getOrCreate()spark.sql("show databa原创 2020-09-11 10:31:31 · 8794 阅读 · 6 评论 -
hive报错:Failed to move to trash: hdfs Permission denied by sticky 无法删除文件
背景描述:由于默认的hdfs是备份为3,在三台集群上hive的数据库都有备份,现在准备删除其他datanode上的备份,但执行hadoop fs -rm -r /user/hive/warehouse/*命令时报错:rm: Failed to move to trash: Permission denied by sticky bit: user=root, path=…错误分析:经过网上搜查之后,发现错误原因可能有三,一是root用户权限不够,在hdfs下,hdfs才是最大权限用户,解决方法是增原创 2020-09-07 20:26:19 · 2845 阅读 · 0 评论 -
centos安装netstat
执行如下命令yum install net-tools -ynetstat -nltp原创 2020-08-03 10:53:45 · 349 阅读 · 0 评论