Mac终端zsh安装插件时遇到的问题 source:1: no such file or directory: zsh-autosuggestions.zsh^M 解决办法

使.zshrc生效时,报错:
在这里插入图片描述

一、摘出关键报错信息:

no such file or directory: /Users/lily/.oh-my-zsh/custom/plugins/zsh-autosuggestions/zsh-autosuggestions.zsh^M

二、报错原因分析:

说是找不到zsh-autosuggestions.zsh这个文件,但明明这个文件是存在的。是谁对mac用了致盲技能导致它眼瞎了吗,不,它只是无法识别,也就是说zsh-autosuggestions.zsh文件里可能存在了隐藏字符^M,导致它认不出来该文件。

you are about to commit crlf line separators to the git repository 解决办法 这篇博客中,为了能git提交代码,我做了这个设置git config --global core.autocrlf true,这意思是 提交时转换为LF,检出时转换为CRLF,而CRLF是Windows的换行符。

也就是说git clone下载这插件时,git是按照windows的标准进行clone的,导致mac 无法识别,报这个 ^M的标识。

三、解决方法:

那我们重新来设置一下:

git config --global core.autocrlf input

在这里插入图片描述
重新 clone这插件,并source .zshrc,从红线处可知,该插件已经生效。
在这里插入图片描述参考:
https://blog.csdn.net/wdd1324/article/details/84963919

https://mirrors.edge.kernel.org/pub/software/scm/git/docs/git-config.html

https://mirrors.edge.kernel.org/pub/software/scm/git/docs/gitattributes.html

大功告成!
在这里插入图片描述

  • 12
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
如果你在终端中执行`sbin/start-all.sh`命令出现`zsh: no such file or directory: sbin/start-all.sh`的错误提示,可能是因为你的当前工作目录不在Hadoop安装目录下。 你可以通过以下步骤解决这个问题: 1. 确认Hadoop安装目录 首先,你需要确认Hadoop的安装目录。假设你将Hadoop安装在/usr/local/hadoop目录下,可以使用以下命令进入Hadoop安装目录: ``` cd /usr/local/hadoop ``` 2. 启动Hadoop 进入Hadoop安装目录后,执行以下命令启动Hadoop: ``` sbin/start-all.sh ``` 如果一切顺利,你应该可以看到输出类似于以下内容的信息: ``` starting namenode, logging to /usr/local/hadoop/logs/hadoop-<your-username>-namenode-<your-machine-name>.out localhost: starting datanode, logging to /usr/local/hadoop/logs/hadoop-<your-username>-datanode-<your-machine-name>.out localhost: starting secondarynamenode, logging to /usr/local/hadoop/logs/hadoop-<your-username>-secondarynamenode-<your-machine-name>.out starting resourcemanager, logging to /usr/local/hadoop/logs/yarn-<your-username>-resourcemanager-<your-machine-name>.out localhost: starting nodemanager, logging to /usr/local/hadoop/logs/yarn-<your-username>-nodemanager-<your-machine-name>.out ``` 这表示Hadoop已经成功启动了。 注意,如果你的Hadoop版本较新,可能需要使用以下命令启动Hadoop: ``` sbin/start-dfs.sh sbin/start-yarn.sh ``` 这会分别启动Hadoop的分布式文件系统和资源管理器。 总之,无论使用哪个命令,一定要确保你的当前工作目录在Hadoop安装目录下。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值