LINUX基础命令总结

【#】 注释

【*】匹配任意一个或任意一个以上的字符

【?】只匹配任意一个字符

【[ ]】匹配方括号中任意一个字符(串)

【$】表示变量引用

【‘】命令替换符

常用命令

1.【cp】copy:

例:cp -I file.cmyfile.c

将file.c覆盖到myfile.c

2.【Who】:

列出所有使用系统的用户,终端名,注册(到系统)时间

例:who am i

列出当前使用该命令的用户信息

3.【echo】:

将参数输出到屏幕(标准输出)

4.【date】:

在屏幕上输出当前时间

5.【cal】:

显示当前月份的日历

如果cal后只有一个参数,则该参数会被解读为年份

例:

cal 10

列出公元十年的日历

Cal 10 2017

列出公元2017年十月份的日历

6.【clear】:清屏

7.【ls】:

显示目录;

常用选项:

-l以列表形式显示

       -a显示所有文件(包括被隐藏的文件)

8.【password】:

更改当前用户的密码

9.【pwd】:

显示当前的绝对路径

10.【mkdir】(make dir):

创建目录

-p可一次建立多个目录

11.【rmdir】:

删除目录

-p递归删除目录

12.【cd】:

改变工作目录(进入目录)

Cd /.. 返回上一级目录

文件操作命令

1.【cat】

(一):显示文件内容

Cat [选项] 文件名

-b显示时加行标

-n显示时所有行加行标

(二):连接文件

Cat file1 file2 > file3

将file1 与 file2的内容合并 然后放入file3中

注:【>】为输出重定向符

2.【touch】

       更新文件时间标签或创建一个新文件

Touch [选项] *.*

       -a更新存取时间

-m更新修改时间

匹配、排序及显示指定内容的命令

1.【grep】

在文本文件中查找指定模式的词(短语)

Grep [选项] 查找模式 [file1,file2,…]

查找模式:

Egrep(等同grep -e)可以使用扩展的字符串模式(正则表达式)进行搜索

Fgrep(等同grep -f)快速搜索命令,检索固定的字符串,但不识别正则表达式

2.【sort】

对文本文件的各行进行排序

3.【uniq】

从排好序的文件中去除重复行

Uniq [选项] [输入文件[输出文件]]

读取输入并比较相邻的行,去掉重复的行,输出到输出文件。

-c输出时显示该行的重复次数

比较文件内容的命令

1.【comm】

对两个已排序的文件逐行进行比较

       Comm [-123] file1 file2

-123 选项 1,2和3分别表示不显示comm输出的第一、二、三列。

2.【Diff】

比较两个文本文件,并找出他们的不同。

(不要求两个文件预先排好序)

Diff [选项] file1 file2

-b 忽略空格造成的差别

-I 忽略字母大小写的差别

复制、删除和移动文件的命令

1.【cp】

将源文件或目录 复制到目标文件或目录中。

2.【rm】

删除文件和目录

-r 递归的删除指定目录及其下属的各级子目录和相应的文件

改变文件或目录存取权限的命令

1.【chmod】

用于改变或设置文件或目录的存取权限

Chmod a+x file

将文件file的权限改为所有用户都有执行权限

 

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值