计算机网络2.1
实验内容
- 操作系统附带的标准 Ping 命令使用 ICMP 进行通信,本实验要求学生编程实现一个简单的,非标准的,基于 UDP 进行通信的 Ping 程序。学生需要用 Python 编写一个 Ping 客户端。客户端程序发送一个 ping 报文,然后接收一个从已经提供的服务器上返回的对应 pong 报文,并计算出从该客户发送 ping 报文到接收到 pong 报文为止的往返时延(Round-Trip Time,RTT)。
- 在客户端程序一次执行过程中,学生编写的的 Ping 客户端程序需经 UDP 向服务器发送 10 个ping 报文。对于每个报文,当对应的 pong 报文返回时,客户端程序要确认并打印输出 RTT值;在整个执行过程中,客户端程序需要考虑分组丢失情况,客户端最多等待 1 秒,超过该时长则打印丢失报文。
代码说明
服务端代码server.py
import random
from socket import *
serverSocket = socket(AF_INET, SOCK_DGRAM)
serverSocket.bind(('', 12000))
while True:
rand = random.randint(0, 10)
message, address = serverSocket.recvfrom(1024)
message = message.upper()
if rand < 4:
continue
serverSocket.sendto(message, address)
客户端代码client.py
from socket import *
from time import time
# 创建socket套接字
udpSocket = socket(AF_INET, SOCK_DGRAM)
# 设置超时时间为1s
udpSocket.settimeout(1)
# 准备接收方的地址
sendAddress = ("127.0.0.1", 12000)
# 总的包的个数
total_data = 10
get_data_counts = 0 # 接收包的个数
max_RIT = 0.000 # 最大RIT时间
min_RIT = 1.000 # 最短RIT时间
total_RIT = 0.000 # 总的时间
sendData = 1 # 发送的消息
while sendData <= total_data:
begin_time = time()
udpSocket.sendto(str(sendData).encode(), sendAddress)
try:
receiveData = udpSocket.recvfrom(1024)
run_time = time() - begin_time
print("RIT time:", run_time, "s")
print(receiveData)
get_data_counts += 1
min_RIT = min(min_RIT, run_time)
max_RIT = max(max_RIT, run_time)
total_RIT += run_time
except Exception as e:
print('Time out!!!!')
sendData += 1
print("max_time:", max_RIT, "s")
print("min_time:", min_RIT, "s")
print("avg_time:", total_RIT / get_data_counts, "s")
print("average packet loss rate:", (float)(get_data_counts) / total_data * 100, "%")
udpSocket.close()
实验过程
- 启动服务端
server,py
代码 - 启动客户端
client,py
代码 - 观察和计算平均
RIT
时间和平均丢包率
实验结果和改进措施
实验结果
RIT time: 0.0002722740173339844 s
(b'1', ('127.0.0.1', 12000))
RIT time: 0.0001609325408935547 s
(b'2', ('127.0.0.1', 12000))
Time out!!!!
RIT time: 0.00022411346435546875 s
(b'4', ('127.0.0.1', 12000))
RIT time: 7.915496826171875e-05 s
(b'5', ('127.0.0.1', 12000))
RIT time: 6.890296936035156e-05 s
(b'6', ('127.0.0.1', 12000))
Time out!!!!
Time out!!!!
RIT time: 0.000347137451171875 s
(b'9', ('127.0.0.1', 12000))
Time out!!!!
max_time: 0.000347137451171875 s
min_time: 6.890296936035156e-05 s
avg_time: 0.00019208590189615885 s
average packet loss rate: 60.0 %
改进措施
- 由于本次实验我只仅仅发送10个数据包。由于数据包数量过少,并不能很好地模拟出丢包率,所以为了更好地模拟丢包率。我将发送的数据包增加到了100。以下是部分实验结果
由此可见,当发送的数据包足够大时,平均丢包率为70%
实验中问题以和解决方法
实验中遇到的问题:
- 判断该请求是否超时
- 怎么精确计算RIT时间
解决方法:
- 使用
socket
的内置函数settimeout
来判断请求是否超时,并捕获异常打出超时- 利用
python
内置模块time
获取发送和接受数据的时间戳,相减得到RIT时间
不同网络环境下的测试结果
- 将
server.py
放在我的云服务器主机122.9.33.112
- 用
python
运行
- 本机开始
ping