linux系统编程手册错误,Linux系统编程手册:系统编程概念

66b52468c121889b900d4956032f1009.png

8种机械键盘轴体对比

本人程序员,要买一个写代码的键盘,请问红轴和茶轴怎么选?

系统调用是受控的内核入口,借助这一机制,进程可以请求内核以自己的名义去执行某些动作。

以应用程序编程接口API的形式,内核提供有一系列服务供程序访问。包括创建新进程、执行I/O,已经为IPC创建管道等。系统调用将处理器从用户态切换到核心态,以便CPU访问到受保护的内核内存。

系统调用的组成是固定的,每个系统调用都用一个唯一的数字来标识。(程序通过名称来标识系统调用)

每个系统调用可以辅之以一套参数,对用户空间(进程的虚拟地址空间)与内核空间之间相互传递的信息加以规范。

x86-32平台系统调用步骤应用程序通过调用C语言函数库中的外壳(wrapper)函数,来发起系统调用。

对系统调用中断处理例程来说,外壳函数必须保证所有的系统调用参数可用。通过堆栈,这些参数传入外壳函数,但内核却希望这些参数置入特定寄存器,因此,外壳函数会将上述参数复制到寄存器。

由于所有的system call进入kernel的方式相同,kernel需要区分每个系统调用。为此,外壳函数会将系统调用编号复制到一个特殊的CPU寄存器(%eax)中。

外壳函数执行一条中断机器指令int 0x80,引发处理器用用户态切换到内核态,并执行系统中断0x80的中断矢量所指向的代码。较新的x86-32平台实现了sysenter指令,比int 0x80进入内核的速度更快。

为相应0x80中断,内核会调用system_call()来处理这次中断,具体如下:在内核中保存寄存器值。

审核系统调用编号的有效性。

以系统调用编号对内核变量sys_call_table进行索引,调用相应的系统调用服务例程。若带参数,会首先检查参数的有效性。

从内核栈中恢复各寄存器的值,并将系统调用返回值置于栈中。

返回至外壳函数,切换回用户态。

若系统调用的返回值表明调用有误,外壳函数会使用该值来设置全局变量errno。然后,外壳函数会返回调用函数,并同时返回一个整型值,以表明系统调用是否成功。在Linux上,系统调用服务例程遵循的惯例是调用成功则返回非负值。发生错误时,例程会对errno取反,返回一负值。C语言函数库的外壳函数随即对其再次取反,结果拷贝至errno,同时以-1作为外壳函数的返回值返回。

系统调用的开销远大于普通C语言函数。

库函数

许多库函数不会使用任何系统调用,有些库函数则构建与系统调用之上。

例如:库函数fopen就利用系统调用open来执行打开文件的操作。往往库函数就是为了提供比底层系统调用更方便的接口。

处理来自调用系统调用和库函数的错误

少数几个系统函数在调用时从不失败,例如:getpid总能返回调用进程的PID,而_exit总能终止进程。

处理系统调用的错误

系统调用失败时,会将全局整型变量errno设置为一个正值,以标识具体的错误。

如果系统调用和库函数成功,errno绝不会被重置为0。

少数系统调用,在调用成功时也会返回-1。判断此类系统调用,在调用前将errno置为0,并在调用后对其检查。

#include void perror(const char *msg);

函数perror打印msg所指向的字符串。

#include char *strerror(int errno);

函数strerror会根据errno返回相应的错误字符串。

处理来自库函数的错误某些库函数返回错误的方式与系统调用完全相同。

某些库函数出错会返回-1之外的其他值,但仍会设置errno。

还有些库函数根本不使用errno。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值