C语言中野指针的详解

  次阅读 作者:智能小宝 来源:互联网 2016-01-26 10:16 我要评论(0)

野指针 不是NULL指针,是指向 垃圾 内存的指针。人们一般不会错用NULL指针,因为用if语句很容易判断。但是 野指针 是很危险的,if语句对它不起作用

野指针 的成因主要有两种:

(1)指针变量没有被初始化。任何指针变量刚被创建时不会自动成为NULL指针,它的缺省值是随机的,它会乱指一气。所以,指针变量在创建的同时应当被初始化,要么将指针设置为NULL,要么让它指向合法的内存。例如

复制代码 代码如下:

char *p = NULL;

char *str = (char *) malloc(100);

(2)指针p被free或者delete之后,没有置为 NULL,让人误以为p是个合法的指针。参见7.5节。

别看free和delete的名字恶狠狠的(尤其是delete),它们只是把指针所指的内存给释放掉,但并没有把指针本身干掉。

用调试器跟踪示例7-5,发现指针p被free以后其地址仍然不变(非NULL),只是该地址对应的内存是垃圾,p成了 野指针 。如果此时不把p设置为 NULL,会让人误以为p是个合法的指针。

如果程序比较长,我们有时记不住p所指的内存是否已经被释放,在继续使用p之前,通常会用语句if (p != NULL)进行防错处理。很遗憾,此时if语句起不到防错作用,因为即便p不是NULL指针,它也不指向合法的内存块。

复制代码 代码如下:

char *p = (char *) malloc(100);

strcpy(p,hello );

free(p);// p 所指的内存被释放,但是p所指的地址仍然不变

if(p != NULL)// 没有起到防错作用

{

strcpy(p,world );// 出错

}

示例7-5 p成为野指针

(3)指针操作超越了变量的作用范围。这种情况让人防不胜防,示例程序如下:

复制代码 代码如下:

class A

{

public:

void Func(void){ cout <<Func of class A<< endl; }

};

void Test(void)

{

A *p;

{

A a;

p = &a;// 注意 a 的生命期

}

p->Func();// p是 野指针

}

函数Test在执行语句p->Func()时,对象a已经消失,而p是指向a的,所以p就成了 野指针 。但奇怪的是我运行这个程序时居然没有出错,这可能与编译器有关。

实例程序:

复制代码 代码如下:

#include <stdio.h>

#include <stdlib.h>

int main(int argc, char *argv[])

{

char *p = NULL;

p = (char*)malloc(sizeof(char)*100);

printf("指针p的地址是:%pn", p);

strcpy(p, "Hello");

printf("%sn", p);

free(p);

printf("指针p的地址是:%pn", p);

system("PAUSE");

return 0;

}

运行截图如下:

本站文章信息来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,是出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如果您有什么意见或建议,请联系QQ28-1688-302!

人工智能实验室
相关文章相关文章
  • 韩春雨称已能重复实验结果 近期将有消息公布

    韩春雨称已能重复实验结果 近期将有消息公布

  • 无人驾驶汽车如何改变城市生活?听听他们怎么说

    无人驾驶汽车如何改变城市生活?听听他们怎么说

  • 未来两年人工智能要怎么走?看这篇就够了

    未来两年人工智能要怎么走?看这篇就够了

  • 英国研发“杀生”机器人 通过生命体获取能量

    英国研发“杀生”机器人 通过生命体获取能量

网友点评网友点评
阅读推荐阅读推荐

据国外媒体报道,在过去两年内,聊天机器人(chatbot)、人工智能以及机器学习的研发和采用取得了巨大进展。许多初创公司正利用人工智能和...

霍金 视觉中国 图 英国著名物理学家霍金(Stephen Hawking)再次就人工智能(AI)发声,他认为:对于人类来说,强大AI的出现可能是最美妙的...

文|郑娟娟 今年,人工智能(AI) 60岁了。在AI60岁的时候,笔者想要介绍一下AI100,一个刚刚2岁的研究项目,但它的预设寿命是100年,甚至更长...

AlphaGo与李世石的人机大战,为大众迅速普及了人工智能的概念。 但对谷歌而言,除了下围棋,现在的人工智能进展到哪一步了?未来,人工智能...