C/C++语言void及void指针深层探索

C/C++语言voidvoid指针深层探索

作者:宋宝华

1                       概述

许多初学者对C/C++语言中的voidvoid指针类型不甚理解,因此在使用上出现了一些错误。本文将对void关键字的深刻含义进行解说,并详述voidvoid指针类型的使用方法和技巧。

2                       void的含义

void的字面意思是“无类型”,void *则为“无类型指针”,void *能指向所有类型的数据。
  void几乎只有“注释”和限制程式的作用,因为从来没有人会定义一个void变量,让我们试着来定义:

 

void a;

 

这行语句编译时会出错,提示“illegal use of type ’void’”。不过,即使void a的编译不会出错,他也没有所有实际意义。


void
真正发挥的作用在于:

1 对函数返回的限定;

2 对函数参数的限定。

 

我们将在第三节对以上二点进行具体说明。


  众所周知,如果指针p1p2的类型相同,那么我们能直接在p1p2间互相赋值;如果p1p2指向不同的数据类型,则必须使用强制类型转换运算符把赋值运算符右边的指针类型转换为左边指针的类型。

 

例如:

float *p1;

int *p2;

p1 = p2;

 

其中p1 = p2语句会编译出错,提示“’=’ : cannot convert from ’int *’ to ’float *’”,必须改为:

p1 = (float *)p2;

  而void *则不同,所有类型的指针都能直接赋值给他,无需进行强制类型转换:

void *p1;
int *p2;
p1 = p2;

 

但这并不意味着,void *也能无需强制类型转换地赋给其他类型的指针。因为“无类型”能包容“有类型”,而“有类型”则不能包容“无类型”。道理非常简单,我们能说“男人和女人都是人”,但不能说“人是男人”或“人是女人”。下面的语句编译出错:

void *p1;
int *p2;
p2 = p1;

 

提示“ ’=’ : cannot convert from ’void *’ to ’int *’ ”。

3                       void的使用

下面给出void关键字的使用规则:


  规则一 如果函数没有返回值,那么应声明为void类型。

  在C语言中,凡不加返回值类型限定的函数,就会被编译器作为返回整型值处理。不过许多程式员却误以为其为void类型。例如:

add ( int a, int b )

{

return a + b;

}


int main(int argc, char* argv[])
{

printf ( "2 + 3 = %d", add ( 2, 3) );
}

程式运行的结果为输出:

  2 + 3 = 5
这说明不加返回值说明的函数的确为int函数。

 

林锐博士《高质量C/C++编程》中提到:“C++语言有非常严格的类型安全检查,不允许上述情况(指函数不加类型声明)发生”。可是编译器并不一定这么认定,譬如在Visual C++6.0中上述add函数的编译无错也无警告且运行正确,所以不能寄希望于编译器会做严格的类型检查。


   因此,为了避免混乱,我们在编写C/C++程式时,对于所有函数都必须一个不漏地指定其类型。如果函数没有返回值,一定要声明为void类型。这既是程式良好可读性的需要,也是编程规范性的需求。另外,加上void类型声明后,也能发挥代码的“自注释”作用。代码的“自注释”即代码能自己注释自己。

规则二 如果函数无参数,那么应声明其参数为void

  在C++语言中声明一个这样的函数:

int function(void)

{

return 1;

}

则进行下面的调用是不合法的:

function(2);

因为在C++中,函数参数为void的意思是这个函数不接受所有参数。

我们在Turbo C 2.0中编译:

 

#include "stdio.h"
fun()

{

return 1;
}


main()
{

printf("%d",fun(2));
getchar();

}

  编译正确且输出1,这说明在C语言中,能给无参数的函数传送任意类型的参数,不过在C++编译器中编译同样的代码则会出错。在C++中,不能向无参数的函数传送所有参数,出错提示“ ’fun’ : function does not take 1 parameters ”。


所以,无论在C还是C++中,若函数不接受所有参数,一定要指明参数为void

  规则三 小心使用void指针类型

按照ANSI(American National Standards Institute)标准,不能对void指针进行算法操作,即下列操作都是不合法的:

void * pvoid;
pvoid++;  //ANSI
:错误

pvoid += 1; //ANSI
:错误

ANSI标准之所以这样认定,是因为他坚持:进行算法操作的指针必须是确定知道其指向数据类型大小的。例如:

int *pint;
pint++; //ANSI
:正确

pint++
的结果是使其增大sizeof(int)

 

不过大名鼎鼎的GNU(GNU’s Not Unix的缩写)则不这么认定,他指定void *的算法操作和char *一致。

  因此下列语句在GNU编译器中皆正确:

pvoid++; //GNU:正确
pvoid += 1; //GNU
:正确

 

pvoid++的执行结果是其增大了1

在实际的程式设计中,为迎合ANSI标准,并提高程式的可移植性,我们能这样编写实现同样功能的代码:

void * pvoid;
(char *)pvoid ++; //ANSI
:正确;GNU:正确

(char *)pvoid += 1; //ANSI
:错误;GNU:正确

[JOEY : 此处尚有疑问,(char *) pvoid ++ VS2005编译无法通过,提示:“void *: 未知的大小。]

 

GNUANSI更有一些差别,总体而言,GNUANSI更“开放”,提供了对更多语法的支持。不过我们在真实设计时,还是应该尽可能地迎合ANSI标准。


  规则四 如果函数的参数能是任意类型指针,那么应声明其参数为void *


  典型的如内存操作函数memcpymemset的函数原型分别为:

void * memcpy(void *dest, const void *src, size_t len);

void * memset ( void * buffer, int c, size_t num );

 

这样,所有类型的指针都能传入memcpymemset中,这也真实地体现了内存操作函数的意义,因为他操作的对象仅仅是一片内存,而不论这片内存是什么类型。如果memcpymemset的参数类型不是void *,而是char *,那才叫真的奇怪了!那样的memcpymemset明显不是个“纯粹的,脱离低级趣味的”函数!

 

下面的代码执行正确:

//示例:memset接受任意类型指针
int intarray[100];
memset ( intarray, 0, 100*sizeof(int) ); //
intarray0

//
示例:memcpy接受任意类型指针

int intarray1[100], intarray2[100];
memcpy ( intarray1, intarray2, 100*sizeof(int) ); //
intarray2拷贝给intarray1

 

有趣的是,memcpymemset函数返回的也是void *类型,标准库函数的编写者是多么地富有学问啊!

  规则五 void不能代表一个真实的变量

  下面代码都企图让void代表一个真实的变量,因此都是错误的代码:

void a; //错误
function(void a); //
错误

 

void体现了一种抽象,这个世界上的变量都是“有类型”的,譬如一个人不是男人就是女人(更有人妖?)。
  void的出现只是为了一种抽象的需要,如果你正确地理解了面向对象中“抽象基类”的概念,也非常容易理解void数据类型。正如不能给抽象基类定义一个实例,我们也不能定义一个void(让我们类比地称void为“抽象数据类型”)变量。

4                       总结

  小小的void蕴藏着非常丰富的设计哲学,作为一名程式设计人员,对问题进行深一个

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值