liunx命令学习

liunx 系统学习

简单的命令

  • pwd :当前工作的目录
  • ps -x :查看所有的进程和状态
  • kill -9 进程号:杀死指定的进程号的进程
  • sudo passwd :命令修改root密码
  • su(switch user)命令切换用户
  • cd / :表示切换到根目录下,不是root
  • cd ~ : (~表示当前用户默认的工作目录):切换回当前用户的工作目录
  • ls : 简易列出目录中的所有文件和目录
  • ls -a:列出目录下的所有文件包括隐含文件
  • ls -al:列出目录下所有文件和目录的详细信息
  • ls -l:列出文件和目录的详细用户,不包括隐含文件和(当前目录.) 、(上级目录..)

ls 命令的具体参数

  • -a 列出目录下的所有文件,包括以 . 开头的隐含文件。
  • -b 把文件名中不可输出的字符用反斜杠加字符编号(就象在C语言里一样)的形式列出。
  • -c 输出文件的 i 节点的修改时间,并以此排序。
  • -d 将目录象文件一样显示,而不是显示其下的文件。
  • -e 输出时间的全部信息,而不是输出简略信息。
  • -f -U 对输出的文件不排序。
  • -g 无用。
  • -i 输出文件的 i 节点的索引信息。
  • -k 以 k 字节的形式表示文件的大小。
  • -l 列出文件的详细信息。
  • -m 横向输出文件名,并以“,”作分格符。
  • -n 用数字的 UID,GID 代替名称。
  • -o 显示文件的除组信息外的详细信息。
  • -p -F 在每个文件名后附上一个字符以说明该文件的类型,“*”表示可执行的普通文件;“/”表示目录;“@”表示符号链接;“|”表示FIFOs;“=”表示套接字(sockets)。
  • -q 用?代替不可输出的字符。
  • -r 对目录反向排序。
  • -s 在每个文件名后输出该文件的大小。
  • -t 以时间排序。
  • -u 以文件上次被访问的时间排序。
  • -x 按列输出,横向排序。
  • -A 显示除 “.”和“..”外的所有文件。
  • -B 不输出以 “~”结尾的备份文件。
  • -C 按列输出,纵向排序。
  • -G 输出文件的组的信息。
  • -L 列出链接文件名而不是链接到的文件。
  • -N 不限制文件长度。
  • -Q 把输出的文件名用双引号括起来。
  • -R 列出所有子目录下的文件。
  • -S 以文件大小排序。
  • -X 以文件的扩展名(最后一个 . 后的字符)排序。
  • -1 一行只输出一个文件。


  • 忘记了命令的参数可以使用 * man 命令(ls)* :按 q 键退出(pgup 和pgdn 上下翻页),也可以按 h 显示命令参数列表

liunx 的文件系统

  • 文件的命名:字母大写或小写(区分大小写),数字,下划线,点号(.),逗号(,)
  • max.c : C 语言的源文件 ; max.o : 编码后的目标代码文件; max : max.c 对应的可执行文件
  • 绝对路径和相对路径的区别:所有以根目录 ”/” 作为开始的都是绝对路径,其它的均为相对路径
  • mkdir 文件路径+文件夹名 :创建目录
  • mkdir -p parent/son : 有时不想层层目录创建,此时可以在mkdir 后面加上参数 -p(parents),将父子目录一起创建
  • cd . : 表示当前目录即工作目录
  • cd .. : 表示当前目录的上一级目录
  • rmdir temp/ :,用于删除目录,它先删除目录下的所有文件(temp中的文件),然后再删除该目录(temp),但当目录下还有子目录时,该命令不能执行,需要使用rm命令: rm -rf 目录名
  • mv demo/ /home/xtwy/ :将目录demo 移动到 xtwy 目录下
  • cp -r literature/ /home/xtwy/ :将目录 literature 拷贝到xtwy目录下, -r 表示递归拷贝,适合于 目录 literature 下有子目录的情况

文件操作

  • 通过echo命令,将输出的命令重定向到文件 :echo “hello linux” > hello.txt (表示创建文件hello.txt,文件里的内容是“hello linux”)
  • touch +文件名(1.txt) : 如果文件不存在,会创建文件
  • cat hello.txt :显示 hello.txt 文件里的内容
  • cp hell1.txt literature/demo : 复制文件 hell1.txt 到demo目录下。需要注意的是cp命令在复制时,如果目标目录中已存在该文件,系统不会给出警告,而是直接覆盖,因此它可能存在销毁文件的风险,为解决这个问题可以使用-i参数让系统给出警告
  • mv hell2.txt literature/demo : 将文件hell2.txt 移动到 demo目录下。在同一目录时,相当于文件重命名,执行完成后hell1.txt不存在: mv hell1.txt hell2.txt
  • 显示文件头部内容用head命令,尾部用tail命令,默认显示行数为10 ; head -2 ~/.bashrc :显示文件 .bashrc 的前两行。
  • sort hello1.txt : 根据文件内容排序 文件内容
  • sort -r hello1.txt : 按行,逆序输出,文件内容
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值