我使用的是一个连接到服务器的Java套接字。
如果我发送一个头部HTTP请求,我如何测量服务器的响应时间?我必须使用一个提供的Java计时器,还是有一个更简单的方法?
我在寻找一个简短的答案,我不想使用其他协议等。显然,我也不想有一个解决方案,将我的应用程序绑定到一个特定的操作系统。请各位,仅限代码内解决方案。
最佳答案:
我想说,这取决于您尝试测量的确切间隔、从发送请求的最后一个字节到收到响应的第一个字节的时间量?或者直到收到全部回复?或者你只是想测量服务器端的时间?
如果您试图只测量服务器端处理时间,那么很难计算出请求到达和返回响应在网络传输中花费的时间。否则,由于您是通过一个套接字自己管理请求的,所以您可以通过检查系统时钟并计算差异来测量任意两个时刻之间经过的时间。例如:public void sendHttpRequest(byte[] requestData, Socket connection) {
long startTime = System.currentTimeMillis();
writeYourRequestData(connection.getOutputStream(), requestData);
byte[] responseData = readYourResponseData(connection.getInputStream());
long elapsedTime = System.currentTimeMillis() - startTime;
System.out.println("Total elapsed http request/response time in milliseconds: " + elapsedTime);
}
此代码将度量从开始编写请求到完成接收响应的时间,并打印结果(假设您实现了特定的读/写方法)。