C++编程归并排序实现(算法导论)

  次阅读 作者:智能小宝 来源:互联网 2016-01-26 10:43 我要评论(0)

算法导论上的下标是从1开始的,但是为了和c++ STL的设计思想一致,所有函数的实现统一用左闭右开区间。中间修改了很多次,因为下标修改不是很容易就改掉的,需要始终维持循环不变式,稍微一个步骤出错就会使结果有些错误。

#include

#include

#include

#include

using namespace std;

void merge(int *A, int p, int q, int r) { //merge [p, r),左闭右开区间

int n1 = q - p, n2 = r - q; //注意数量的变化与书上的不同,使用左闭右开区间的优势就是统一数量的形式表示

int *L = new int[n1], *R = new int[n2];

for (int i = 0; i < n1; ++i) //L[0, n1) <== A[p, q)

L[i] = A[p+i];

for (int i = 0; i < n2; ++i) //R[0, n2) <== A[q, r)

R[i] = A[q+i]; //此处不是q+i+1

int i = 0, j = 0;

int k = p;

while (i < n1 && j < n2) {

if (L[i] <= R[j])

A[k++] = L[i++];

else

A[k++] = R[j++];

}

while (i < n1) //由于没有了哨兵,需要添加多余元素

A[k++] = L[i++];

while (j < n2)

A[k++] = R[j++];

delete [] L;

delete [] R;

}

void merge_sort(int *a, int p, int r) { //调用接口 merge_sort(a, 0, len), 不是(a, 0, len-1)了

if (p < r - 1) { //此时不是p < r了,左闭右开区间当p>=r-1时子数组最多一个元素

int q = p + (r - p)/2;

merge_sort(a, p, q);

merge_sort(a, q, r); //注意接口统一了,这个不是(a, q+1, r)而是(a, q, r)了,左闭右开的好处

merge(a, p, q, r);

}

}

int main()

{

srand(time(NULL));

int n;

while (cin 》 n) {

int a[n];

for (int i = 0; i < n; ++i)

a[i] = rand() % n;

for (int i = 0; i < n; ++i)

printf("%d ", a[i]);

printf("\n");

merge_sort(a, 0, n);

for (int i = 0; i < n; ++i)

printf("%d ", a[i]);

printf("\n");

}

}

最后用了几万组测试数据,得出的结果均与stl里的sort结果一样, 基本说明这个代码是正确的。

本站文章信息来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,是出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如果您有什么意见或建议,请联系QQ28-1688-302!

人工智能实验室
相关文章相关文章
  • 韩春雨称已能重复实验结果 近期将有消息公布

    韩春雨称已能重复实验结果 近期将有消息公布

  • 未来两年人工智能要怎么走?看这篇就够了

    未来两年人工智能要怎么走?看这篇就够了

  • 无人驾驶汽车如何改变城市生活?听听他们怎么说

    无人驾驶汽车如何改变城市生活?听听他们怎么说

  • 英国研发“杀生”机器人 通过生命体获取能量

    英国研发“杀生”机器人 通过生命体获取能量

网友点评网友点评
阅读推荐阅读推荐

据国外媒体报道,在过去两年内,聊天机器人(chatbot)、人工智能以及机器学习的研发和采用取得了巨大进展。许多初创公司正利用人工智能和...

霍金 视觉中国 图 英国著名物理学家霍金(Stephen Hawking)再次就人工智能(AI)发声,他认为:对于人类来说,强大AI的出现可能是最美妙的...

文|郑娟娟 今年,人工智能(AI) 60岁了。在AI60岁的时候,笔者想要介绍一下AI100,一个刚刚2岁的研究项目,但它的预设寿命是100年,甚至更长...

AlphaGo与李世石的人机大战,为大众迅速普及了人工智能的概念。 但对谷歌而言,除了下围棋,现在的人工智能进展到哪一步了?未来,人工智能...