vs移植linux为什么一堆神奇的问题,关于C#:为什么这些程序在Windows和Linux上运行不同的直觉或见解?...

我有一个小程序,该程序实现三种排序算法,并对每个程序的执行时间进行时间分析(使用C时间库并调用clock())。程序在对数组进行排序之前读取9999、19999和29999的整数。完成后,将发现新排序的数据的中位数可以证明对数据进行了正确的排序。

问题是,在我的个人Windows 7计算机上,尽管具有正确的排序集,但我找不到通过quicksort算法排序的数据的中间值。但是,当在Linux机器上运行时,一切正常,但时间安排与预期不符。

快速排序算法是nlog(n)平均情况。因此,我们希望执行时间随着数据集的增加而增加(这在我的个人计算机上也是如此)。但是,当在Linux机器上运行时,对于最小的一组数据,执行时间为0,对于以下两个数据,则为等效时间。

我可以理解与执行时间相关的计算结果为0(由于整数算术的截断),但是我的个人计算机在其他所有算法上的运行速度要快得多。对于这个特定实例所指出的滞后性促使我去询问差异。

如果您认为差异背后的原因可能是由于我如何进行阅读/排序而造成的,则应这样评论。但是,我对两个系统之间的系统时间处理方式与可能引起问题的其他各种方式之间的差异更感兴趣。

96312c172b6caa8ea25ed65e27a10f98.png

而且,有时,当程序在linux机器上运行时,输出执行时间实际上类似于10 0 10,因此自然而然地引起了我的兴趣。

您可能会仔细检查以查看是否存在精度差异问题:stackoverflow.com/questions/8594277/clock-precision-in-time-h

您还没有说过有关计算机体系结构的信息,也没有说过您使用的是32位还是64位实现,或者运行这些测试时计算机可能还在做什么。 简而言之,您的数据毫无意义。

我在问一个普遍的问题。 我没有考虑此输出在各种体系结构之间的依赖关系可能会有所不同。 我想知道是否立即有明显的区别。 我并不是要对正在发生的事情进行非常精确的定义。

除了明显的地方,我不确定您在这里寻找什么,但是...

您的Windows代码中有错误,因此中位数很差

在UNIX机器上,定时信息的分辨率很低,因此您只能看到10的倍数。因此,持续时间在0到10(无论单位是多少)之间的任何进程都可以显示0或10,具体取决于启动和停止的时间。 通过根据其他运行缩放窗口的结果,与您期望的时间保持一致。

这就是我的想法。 我一直在寻找的只是一般可能性。 我对Linux系统几乎一无所知,所以我不 有一个有趣的问题是,在Linux机器上成功计算了中位数,而在Windows机器上,正确的中位数恰好是返回的中位数(在排序的整数数组中)之前的1个位置。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值