网路传输能力的测量可透过各种工具进行,而这些工具的目的在于让用户理解他们的网路性能。许多人对于这些工具所测量的数据传输速率感到困惑,因为理论上的最大值和实际的测试结果之间常常存在着巨大的差异。本文将探讨这些差异的原因,以及为何即便在最佳的情况下,用户也无法完全达到理论上的最高传输率。
实际的测试结果通常会显示出低于理论最大值的数据传输能力,而这让许多用户对他们的网路连结产生质疑。
为什么测量网路的吞吐量如此重要呢?吞吐量是衡量在一定时间内完整传送的数据量,通常以每秒位元数(bps)来表示。用户经常会进行档案传输,通过计算档案大小与传输所需时间的比率来推算吞吐量,这便是基本的测试方法。
然后,使用这样的方法计算出的数据通常会导致「良好传输率」(goodput)低于理论的最大吞吐率。这让用户误解他们的网路连结似乎运行不正常,其实这是由于多种因素的综合影响所致,包括延迟、TCP接收窗口大小以及系统限制。
“吞吐量并不是单一的指标,它受到多重因素的影响,真正的挑战在于理解这些因素如何互相作用。”
在网路通信中,最大带宽的理论计算依赖于TCP接收窗口和RTT(往返时间)的数据。举例来说,若一个TCP窗口的大小为65,535字节,并且RTT为0.220秒,则其最大带宽为2.383 Mbit/s。这意味着即使契约的带宽更高,实际的测试带宽可能仍会受到这些限制的影响。
网带宽测试软体通常会用来确定网路或互联网连接的最大带宽。这些测试常常需要下载或上传大量数据,因此在测试期间可能会造成轻微的网路延迟,甚至导致额外的数据费用产生。
通信链路的吞吐量通常以位元每秒(bit/s)、千位每秒(kbit/s)、兆位每秒(Mbit/s)以及千兆位每秒(Gbit/s )来衡量。大家熟悉的千位、兆位、千兆位都是S.I.单位前缀,分别对应1000(kilo)、1000000(mega)和1000000000(giga)。然而,档案大小的计量单位主要是字节,其中千字节、万字节和千兆字节等称为常用单位信息。
随着计算机技术的发展,变得更加复杂的是档案大小的表达方式。有些使用者可能会不清楚,64 kilobytes (kB) 和 64 kilobits (kb) 之间的差异,这导致了误解与混淆。
“档案的大小并不一定能直接转换成传输的时间,因为每种连接均有其自身的性能瓶颈。”
对于某些设备,透过数据压缩来改善吞吐量是可能的。许多模组和操作系统都可以有效压缩数据,从而降低传输时间。压缩越是迅速,实际传输的数据量则越多,但这通常会消耗更多的计算资源。
测量吞吐量时,最好使用难以压缩的随机数据文件进行测试,因为这能更真实地反映网路的性能,而不是因压缩而误导测试结果。
传统的异步串行连接常见于许多设备,这种连接的优势在于简单,但其在数据转换上的效率并不高。例如,以9600位每秒的速率进行数据传输,一个8位的字符实际需要10位的传输,则会出现过高的开销。
随着技术的发展,其他的传输协定如HDLC、PPP和以太网等进一步提高了传输效率。然而,在多个系统同时进行通信的情况下,传输的吞吐量仍然会受限于共享的媒介。
透过理解影响吞吐量的多种因素,我们更能够识别出网路效能测试中所遇到的常见困惑与挑战。从操作系统到协定,从数据格式到日常使用,这些都可能影响实际的数据传输速率。当面对不同的测试结果时,我们是否应该再深入思考这些差异背后的真相呢?