带宽延时如何产生的?如何有效地计算?发布者:mazi99 时间:10-28 阅读数:979现在,我们对带宽延时及计算方法开始进行讨论,大家基本确定,带宽延时就是串行延时。会后偶再查阅相关也资料表明,这个结论是正确的。那么什么是串行延迟?确切的讲,串行延迟产生的根本原因是将数字数据放到传输线路中的串行化的结果,所以,其延迟大小取决于传送线路的速度。也就是说,无论我数据包大小如何,把它放到线路上串行化传输所花的时间,跟带宽是有真接关系的。 当我们明白这个定义后,对于计算带宽延迟和精确计算带宽是多少就有了理论依据。其结果就是,在特定条件下,我们只要一个数据包,就可以得出带宽延迟及精确计算出这条线路的带宽。当然,这个数据包最好的满负荷的,也就是1500字节左右。 下面我们通过实例来求证: 偶测试的环境是10M的小区宽带,当前状况下没有其他网络应用,偶通过IE到本地电信最近的一个测试网站,下载一下大文件,同时进行抓包,并进行分析。结果如下: 大家可以看到红色方框中的数据。我们先来给出计算方法: 2,当我们计算出传送这个数据包后的时候,通过这个数据包的大小,除以这个延迟,那么就可以得到带宽。还是比如第二个方框:(1438+8+12)*8/0.001159=10063848.144952545297670405522002 =10 M ,这个结果相当精确! 相信大家觉得这里面还有一些问题,如下: 2,带宽可能还会被其他数据暂用,你如何确定这个数据包上没有其他数据? 这些都是偶个人的理解,并且在这两天做了大量的计算,基本跟理论一致。欢迎大家拍砖!!也期待大家可以一起讨论。 注:本文由睿博工作室合作提供,睿博工作室系一群在网络性能,网络安全及网络故障方面的资深团队。
|
|