作者ken1325 ( )
看板Network
标题[问答] 关於packet loss rate的解释
时间Fri Sep 9 00:27:31 2016
我现在有一个网路实验,这个实验总共会跑100次,测出这100次所花费的
时间是多少,然後再算出这100次的平均是多少。我在做实验时,会使用 Linux 底下的
netem 工具去模拟 packet loss rate。
例如:
假设我设定packet loss rate = 25%,这表示每次在传送封包时,会有25%的机率遗失掉
,遗失掉後会再重传一次。
跑出来的平均数有可能是下面这样:
跑第一个100次的平均是 1.57 second
跑第二个100次的平均是 2.43 second
跑第三个100次的平均是 70.33 second
跑第四个100次的平均是 0.68 second
可以看到每次跑出来的平均数都不一样,有时候非常高,有时候又很低,教授问为什麽每
次都不一样,
我的解释是因为我有设定packet loss rate = 25%,
当在测试时,如果每次封包都刚好loss掉,则测出来的时间就会变得很高;而如果每次封
包都刚好没有loss,则测出来的时间就会很低。
我想请问关於packet loss rate的解释,我这样解释是对的吗?
因为教授好像不是很满意这个解释,他希望每次出来的时间都要差不多。
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.47.18.193
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Network/M.1473352053.A.783.html
※ 编辑: ken1325 (114.47.18.193), 09/09/2016 00:48:50
1F:→ deadwood: 感觉你的测试是把封包遗失机率设定25%,然後送100次单一 09/09 01:32
2F:→ deadwood: 封包才会出现这个结果... 09/09 01:33
3F:→ deadwood: 一般来说设定几%的遗失率,就是固定遗失总数量几%的封包 09/09 01:46
4F:→ deadwood: 不会有所谓"每次封包都刚好遗失掉"的状况发生才对 09/09 01:47
如果是固定遗失总数量几%,那如果我用ping测试,
假设我ping 12次:ping 8.8.8.8 -c 12,
那是不是固定会失败3次(12*0.25)?
但我在测试时却不一定会失败3次,可能更多也可能更少。
※ 编辑: ken1325 (114.47.18.193), 09/09/2016 02:16:50
5F:推 deadwood: 看了一下netem的文件,发现loss 机能确实是乱数产生 09/09 10:11
6F:→ deadwood: 因此会有原PO的情况发生,有个方法是後面再加一个XX% 09/09 10:12
7F:→ deadwood: 叫做correlation的功能,让机率随着发生次数再减少 09/09 10:14
8F:→ deadwood: 不过文件也有说明,loss random的功能可能是因为程式 09/09 10:14
9F:→ deadwood: 本身的乱数运算法的问题,模拟出来的行为不太正确 09/09 10:15
10F:→ deadwood: 新版的似乎又加入了套用不同运算模型(这个就不太懂了) 09/09 10:16
11F:→ deadwood: 的作法,不过实际上运作如何可能要自己去试了 09/09 10:17
12F:→ deadwood: 另外补充一点,样本数太低也是加大误差的原因 09/09 11:46
13F:→ deadwood: 改成每次都传1000个封包看看吧 09/09 11:58
好,我再试试看,谢谢
※ 编辑: ken1325 (114.47.18.193), 09/09/2016 12:33:00