项目(百万并发网络通信架构)10.2---recv()函数的极限测试

前言

  • 本文进行recv()函数的测试,查看在不同的情况下recv()函数每秒大概可以执行多少次
  • 因为是对recv()函数测试,所以我们用客户端给服务器send()发送数据,不接收数据服务端只使用recv()函数接收数据,但是不给客户端发送数据
  • 我们使用client给server发送大量数据,但是将server中的recv()函数参数3改为1,不论每次缓冲区中有多少数据,recv()函数每执行一次只接收一个数据,这样就更加可以测试出recv()函数的执行极限了
  • 我们还会对服务器进行性能分析,查看当在什么情况下select函数的执行次数会降低,并将代码主要的执行次数几种在数据的接受与发送上面

一、代码改造

服务端代码修改(EasyTcpServer.hpp)

  • 为INetEvent新增一个OnNetRecv()函数,代表recv()执行之后产生的事件
//网络事件接口
class INetEvent {
public:
	//同之前
	virtual void OnNetRecv(ClientSocket* pClient) = 0; //recv事件
};
  • EasyTcpServer里面定义两个变量,一个为_msgCount(为之前的服务端接收到的数据包的数量),另一个为_recvCount(代表recv()函数执行的次数),然后重写INetEvent的OnNetRecv()函数,让其内部使_recvCount++
class EasyTcpServer:public INetEvent
{
public:
	//recv事件
	virtual void OnNetRecv(ClientSocket* pClient)override { _recvCount++; }
private:
	std::atomic_int            _msgCount;    //表示服务端接收到客户端数据包的数量
	std::atomic_int            _recvCount;   //recv()函数执行的次数
};
  • 修改EasyTcpServer::time4msg()函数,让其在内部每次都打印_msgCount的数量和_recvCount的数量
void EasyTcpServer::time4msg()
{
	auto t = _tTime.getElapsedSecond();
	if (t >= 1.0)
	{
		//msgCount,_recvCount为什么要除以t:
		//因为我们要每1秒钟打印一次接收到的数据包,如果这个函数调用的时候时间差大于1秒,那么可以将recvCount/t,获得比较平均的数据包数量/recv执行次数
		printf("time<%lf>,thread numer<%d>,client number<%d>,msgCount<%d>,recvCount<%d>\n",
			t, _cellServers.size(), static_cast<int>(_clientCount), static_cast<int>(_msgCount / t), static_cast<int>(_recvCount / t));
		_recvCount = 0;
		_msgCount = 0;
		_tTime.update();
	}
}
  • 修改CellServer::RecvData()函数:
    • recv()函数的参数3由之前的RECV_BUFF_SIZE改为1,这样不论每次缓冲区中有多少数据,recv()函数每执行一次只接收一个数据,这样就更加可以测试出recv()函数的执行极限了
    • 在每次recv()函数返回之后调用一次自己绑定的EasyTcpServer的OnNetRecv()函数
int CellServer::RecvData(ClientSocket* pClient)
{
	int _nLen = recv(pClient->sockfd(), _recvBuff, 1, 0);
	_pNetEvent->OnNetRecv(pClient);
	//同之前
}
  • EasyTcpServer.hpp的代码最终如下图所示:
#ifndef _EasyTcpClient_hpp_
#define _EasyTcpClient_hpp_

#ifdef _WIN32
	#define FD_SETSIZE 10240
	#define WIN32_LEAN_AND_MEAN
	#define _WINSOCK_DEPRECATED_NO_WARNINGS //for inet_pton()
	#define _CRT_SECURE_NO_WARNINGS
	#include <windows.h>
	#include <WinSock2.h>
	#pragma comment(lib, "ws2_32.lib")
#else
	#include <unistd.h>
	#include <sys/socket.h>
	#include <sys/types.h>
	#include <arpa/inet.h>
	#include <netinet/in.h>
	#include <sys/select.h>
	//在Unix下没有这些宏,为了兼容,自己定义
	#define SOCKET int
	#define INVALID_SOCKET  (SOCKET)(~0)
	#define SOCKET_ERROR            (-1)
#endif


#ifndef RECV_BUFF_SIZE
#define RECV_BUFF_SIZE 10240        //接收缓冲区的大小
#endif // !RECV_BUFF_SIZE

#include <iostream>
#include <string.h>
#include <stdio.h>
#include <vector>
#include <mutex>
#include <atomic>
#include <functional> 
#include <map>
#include "MessageHeader.hpp"
#include "CELLTimestamp.hpp"
//using namespace std;

//客户端数据类型,用来封装一个客户端
class ClientSocket
{
public:
	ClientSocket(SOCKET sockfd= INVALID_SOCKET) :_sock(sockfd), _lastPos(0) {
		memset(_recvMsgBuff, 0, sizeof(_recvMsgBuff));
	}

	SOCKET sockfd() { return _sock; }
	char   *msgBuff() { return _recvMsgBuff; }
	int    getLastPos() { return _lastPos; }
	void   setLastPos(int pos) { _lastPos = pos; }

	int    SendData(DataHeader* header) {
		if (header) {
			return send(_sock, (const char*)header, header->dataLength, 0);
		}
		return SOCKET_ERROR;
	}
private:
	SOCKET _sock;                             //客户端socket
	char   _recvMsgBuff[RECV_BUFF_SIZE * 5];  //消息接收缓冲区
	int    _lastPos;                          //缓冲区的数据尾部位置
};

//网络事件接口
class INetEvent {
public:
	virtual void OnClientJoin(ClientSocket* pClient) = 0;     //客户端加入事件
	virtual void OnClientLeave(ClientSocket* pClient) = 0;    //客户端离开事件
	virtual void OnNetMsg(ClientSocket* pClient, DataHeader* header) = 0; //接收到客户端消息事件
	virtual void OnNetRecv(ClientSocket* pClient) = 0;        //recv事件
};

class CellServer
{
public:
	CellServer(SOCKET sock = INVALID_SOCKET) :_sock(sock), maxSock(_sock), _pthread(nullptr), _pNetEvent(nullptr), _clients_change(false){
		memset(_recvBuff, 0, sizeof(_recvBuff));
		memset(&_fdRead_bak, 0, sizeof(_fdRead_bak));
	}
	~CellServer() { CloseSocket(); }
public:
	bool   isRun() { return _sock != INVALID_SOCKET; }
	void   CloseSocket();
public:
	size_t getClientCount() { return _clients.size() + _clientsBuff.size(); } //返回当前客户端的数量
	void   setEventObj(INetEvent* event) { _pNetEvent = event; }              //设置事件对象,此处绑定的是EasyTcpServer
public:
	bool   Onrun();
	void   AddClient(ClientSocket* pClient)  //讲客户端加入到客户端连接缓冲队列中
	{
		//自解锁
		std::lock_guard<std::mutex> lock(_mutex); 
		//_mutex.lock(); 当然也可以使用互斥锁
		_clientsBuff.push_back(pClient);
		//_mutex.unlock();
	}
	int    RecvData(ClientSocket* pClient);     //接收数据
	void   OnNetMessage(ClientSocket* pClient, DataHeader* header);//处理网络消息
	void   Start() {
		//启动当前服务线程
		//创建一个线程,线程执行函数为Onrun(),其实可以不传递this,但是为了更安全,可以传递this给Onrun()
		_pthread = new std::thread(std::mem_fn(&CellServer::Onrun), this);
	}
private:
	SOCKET                     _sock;         //服务端的套接字
	std::map<SOCKET, ClientSocket*> _clients; //真正存储客户端
	std::vector<ClientSocket*> _clientsBuff;  //存储客户端连接缓冲队列,之后会被加入到_clients中去
	SOCKET                     maxSock;       //当前最大的文件描述符值,select的参数1要使用
	char _recvBuff[RECV_BUFF_SIZE];           //接收缓冲区
	std::mutex                 _mutex;        //互斥锁
	std::thread*               _pthread;      //当前子服务端执行的线程
	INetEvent*                 _pNetEvent;
	fd_set                     _fdRead_bak;   //用来保存当前的fd_set
	bool                       _clients_change;//当前是否有新客户端加入进来
};

class EasyTcpServer:public INetEvent
{
public:
	EasyTcpServer() :_sock(INVALID_SOCKET), _msgCount(0), _recvCount(0), _clientCount(0){}
	virtual ~EasyTcpServer() { CloseSocket(); }
public:
	void InitSocket();  //初始化socket
	int  Bind(const char* ip, unsigned short port);    //绑定端口号
	int  Listen(int n); //监听端口号
	SOCKET Accept();    //接收客户端连接
	void addClientToCellServer(ClientSocket* pClient);//将新客户加入到CellServer的客户端连接缓冲队列中
	void Start(int nCellServer);                      //创建从服务器,并运行所有的从服务器。(参数为从服务器的数量)
	void CloseSocket(); //关闭socket
	bool isRun() { return _sock != INVALID_SOCKET; }  //判断当前服务端是否在运行
	bool Onrun();       //处理网络消息

	void time4msg();    //每1秒统计一次收到的数据包的数量
public:
	//客户端加入事件(这个是线程安全的,因为其只会被主服务器(自己)调用)
	virtual void OnClientJoin(ClientSocket* pClient)override { _clientCount++; }
	//客户端离开事件,这个里面做的事情比较简单,只是将当前客户端的数量--(如果从服务器不止一个,那么此函数不是线程安全的,因为这个函数会被多个从服务器调用的)
	virtual void OnClientLeave(ClientSocket* pClient)override { _clientCount--; }
	//接收到客户端消息事件,将数据包的数量增加(如果从服务器不止一个,那么此函数不是线程安全的,因为这个函数会被多个从服务器调用的)
	virtual void OnNetMsg(ClientSocket* pClient, DataHeader* header)override { _msgCount++; }
	//recv事件
	virtual void OnNetRecv(ClientSocket* pClient)override { _recvCount++; }
private:
	SOCKET                     _sock;        //服务端套接字
	std::vector<CellServer*>   _cellServers; //存放从服务端对象
	CELLTimestamp              _tTime;       //计时器
	std::atomic_int            _clientCount; //客户端的数量(这里采用一个原子操作,没什么特殊原因,使用玩玩罢了,下同)
	std::atomic_int            _msgCount;    //表示服务端接收到客户端数据包的数量
	std::atomic_int            _recvCount;   //recv()函数执行的次数
};

void EasyTcpServer::InitSocket()
{
#ifdef _WIN32
	WORD ver = MAKEWORD(2, 2);
	WSADATA dat;
	WSAStartup(ver, &dat);
#endif

	//建立socket
	_sock = socket(AF_INET, SOCK_STREAM, IPPROTO_TCP);
	if (INVALID_SOCKET == _sock) {
		std::cout << "Server:创建socket成功" << std::endl;
	}
	else {
		std::cout << "Server:创建socket成功" << std::endl;
	}
}

int EasyTcpServer::Bind(const char* ip, unsigned short port)
{
	if (!isRun())
		InitSocket();

	//初始化服务端地址
	struct sockaddr_in _sin = {};
#ifdef _WIN32
	if (ip) 
		_sin.sin_addr.S_un.S_addr = inet_addr(ip);
	else
		_sin.sin_addr.S_un.S_addr = INADDR_ANY;
#else
	if (ip)
		_sin.sin_addr.s_addr = inet_addr(ip);
	else
		_sin.sin_addr.s_addr = INADDR_ANY;
#endif
	_sin.sin_family = AF_INET;
	_sin.sin_port = htons(port);

	//绑定服务端地址
	int ret = ::bind(_sock, (struct sockaddr*)&_sin, sizeof(_sin));
	if (SOCKET_ERROR == ret) {
		if (ip)
			std::cout << "Server:绑定地址(" << ip << "," << port << ")失败!" << std::endl;
		else
			std::cout << "Server:绑定地址(INADDR_ANY," << port << ")失败!" << std::endl;
	}
	else {
		if (ip)
			std::cout << "Server:绑定地址(" << ip << "," << port << ")成功!" << std::endl;
		else
			std::cout << "Server:绑定地址(INADDR_ANY," << port << ")成功!" << std::endl;
	}
	return ret;
}

void EasyTcpServer::CloseSocket()
{
	if (_sock != INVALID_SOCKET)
	{
#ifdef _WIN32
		closesocket(_sock);
		WSACleanup();
#else
		close(_sock);
#endif
		_sock = INVALID_SOCKET;
	}
}

int EasyTcpServer::Listen(int n)
{
	//监听网络端口
	int ret = listen(_sock, n);
	if (SOCKET_ERROR == ret)
		std::cout << "Server:监听网络端口失败!" << std::endl;
	else
		std::cout << "Server:监听网络端口成功!" << std::endl;
	return ret;
}

SOCKET EasyTcpServer::Accept()
{
	//用来保存客户端地址
	struct sockaddr_in _clientAddr = {};
	int nAddrLen = sizeof(_clientAddr);
	SOCKET _cSock = INVALID_SOCKET;

	//接收客户端连接
#ifdef _WIN32
	_cSock = accept(_sock, (struct sockaddr*)&_clientAddr, &nAddrLen);
#else
	_cSock = accept(_sock, (struct sockaddr*)&_clientAddr, (socklen_t*)&nAddrLen);
#endif
	if (INVALID_SOCKET == _cSock) {
		std::cout << "Server:接收到无效客户端!" << std::endl;
	}
	else {
		//通知其他已存在的所有客户端,有新的客户端加入
		//NewUserJoin newUserInfo(static_cast<int>(_cSock));
		//SendDataToAll(&newUserInfo);

		//将新连接的客户端加入到从服务器的客户端缓冲队列中
		ClientSocket* newClient = new ClientSocket(_cSock);
		addClientToCellServer(newClient);
		OnClientJoin(newClient); //相应客户端加入事件,其函数会将客户端的数量++

		//std::cout << "Server:接受到新的客户端(" << _clients.size() << ")连接,IP=" << inet_ntoa(_clientAddr.sin_addr)
		//	<< ",Socket=" << static_cast<int>(_cSock) << std::endl;
	}
	return _cSock;
}

void EasyTcpServer::addClientToCellServer(ClientSocket* pClient)
{
	//在_cellServers中寻找,哪一个CellServer其处理的客户数量最少,那么就将新客户加入到这个CellServer对象中去
	auto pMinServer = _cellServers[0];
	for (auto pCellServer : _cellServers)
	{
		if (pMinServer->getClientCount() > pCellServer->getClientCount())
		{
			pMinServer = pCellServer;
		}
	}
	pMinServer->AddClient(pClient);
}

void EasyTcpServer::Start(int nCellServer)
{
	for (int i = 0; i < nCellServer; ++i)
	{
		auto ser = new CellServer(_sock);
		_cellServers.push_back(ser);
		ser->setEventObj(this);
		ser->Start();
	}
}

bool EasyTcpServer::Onrun()
{
	if (isRun())
	{
		time4msg(); //统计当前接收到的数据包的数量

		fd_set fdRead;
		//fd_set fdWrite;
		//fd_set fdExp;
		FD_ZERO(&fdRead);
		//FD_ZERO(&fdWrite);
		//FD_ZERO(&fdExp);
		FD_SET(_sock, &fdRead);
		//FD_SET(_sock, &fdWrite);
		//FD_SET(_sock, &fdExp);

		struct timeval t = { 0,0 };
		int ret = select(_sock + 1, &fdRead, nullptr, nullptr, &t);
		if (ret < 0)
		{
			std::cout << "Server:select出错!" << std::endl;
			//select出错,那么就不能再继续运行select,出错之后,调用CloseSocket(),
			//关闭所有服务端、及客所有户端套接字,那么isRun()就会返回false,从而终止server.cpp程序运行
			CloseSocket();
			return false;
		}
		if (FD_ISSET(_sock, &fdRead))//如果一个客户端连接进来,那么服务端的socket就会变为可读的,此时我们使用accept来接收这个客户端
		{
			FD_CLR(_sock, &fdRead);
			Accept();
			return true;
		}
		return true;
	}
	return false;
}

void EasyTcpServer::time4msg()
{
	auto t = _tTime.getElapsedSecond();
	if (t >= 1.0)
	{
		//msgCount,_recvCount为什么要除以t:
		//因为我们要每1秒钟打印一次接收到的数据包,如果这个函数调用的时候时间差大于1秒,那么可以将recvCount/t,获得比较平均的数据包数量/recv执行次数
		printf("time<%lf>,thread numer<%d>,client number<%d>,msgCount<%d>,recvCount<%d>\n",
			t, _cellServers.size(), static_cast<int>(_clientCount), static_cast<int>(_msgCount / t), static_cast<int>(_recvCount / t));
		_recvCount = 0;
		_msgCount = 0;
		_tTime.update();
	}
}

void CellServer::CloseSocket()
{
	if (_sock != INVALID_SOCKET)
	{
#ifdef _WIN32
		//将所有的客户端套接字关闭
		for(auto iter:_clients)
		{
			closesocket(iter.second->sockfd());
			delete iter.second;
		}
		//关闭服务端套接字
		closesocket(_sock);

		//因为这是从服务器,所以就不要清理套接字环境了,放置主服务器的套接字环境被清除
		//WSACleanup();
#else
		for (auto iter : _clients)
		{
			close(iter.second->sockfd());
			delete iter.second;
		}
		close(_sock);
#endif
		_clients.clear();
		_sock = INVALID_SOCKET;
		delete _pthread;
	}
}

bool CellServer::Onrun()
{
	while (isRun())
	{
		//如果客户端缓冲队列_clientsBuff中有新客户,那么就将其加入到_clients中
		if (_clientsBuff.size() > 0)
		{
			//自解锁lock_guard,作用域结束后自动释放锁,因此if执行结束之后,_mutex就被释放了
			std::lock_guard<std::mutex> lock(_mutex);
			for (auto pClient : _clientsBuff)
			{
				_clients[pClient->sockfd()] = pClient;
			}
			_clientsBuff.clear();
			_clients_change = true;
		}

		//如果没有客户,那么休眠一秒然后继续下一次循环
		if (_clients.empty())
		{
			std::chrono::milliseconds t(1);
			std::this_thread::sleep_for(t);
			continue;
		}

		fd_set fdRead;
		FD_ZERO(&fdRead);
		//在主线程的select中已经对主服务端的_sock进行查询了,所以从服务器就不需要再将_sock加入到fd_set中了,否则两个地方同时操作会出错
		//FD_SET(_sock, &fdRead);

		//根据_fdRead_change判断是否有新客户端加入,如果有那么就进行新的FD_SET
		if (_clients_change)
		{
			_clients_change = false;
			for (auto iter : _clients)
			{
				FD_SET(iter.second->sockfd(), &fdRead);
				if (maxSock < iter.second->sockfd())
					maxSock = iter.second->sockfd();
			}
			//将更新后的fd_set保存到_fdRead_bak中
			memcpy(&_fdRead_bak, &fdRead, sizeof(_fdRead_bak));
		}
		//否则直接拷贝,不用再循环FD_SET了
		else
			memcpy(&fdRead, &_fdRead_bak, sizeof(_fdRead_bak));
		

		//从服务器一般只用来收取数据,所以这里设置为阻塞的也可以
		//struct timeval t = { 1,0 };
		int ret = select(maxSock + 1, &fdRead, nullptr, nullptr, nullptr);
		if (ret < 0)
		{
			std::cout << "Server:select出错!" << std::endl;
			CloseSocket();
			return false;
		}

#ifdef _WIN32
		//如果是WIN下运行,fd_set拥有fd_count与fd_array成员
		//我们可以遍历fd_set,然后从中获取数据,不需要使用FD_ISSET了
		for (int n = 0; n < fdRead.fd_count; n++)
		{
			auto iter = _clients.find(fdRead.fd_array[n]);
			//如果RecvData出错,那么就将该客户端从_client中移除
			if (-1 == RecvData(iter->second))
			{
				if (_pNetEvent)
					_pNetEvent->OnClientLeave(iter->second); //通知主服务器有客户端退出
				delete iter->second;
				_clients.erase(iter->first);
				_clients_change = true; //这个要设置为true,因为有客户端退出了,需要重新进行FD_SET
			}
		}
#else
		//如果在UNIX下,fd_set无fd_count与fd_array成员,我们只能遍历_clients数组
		//遍历_clients map容器中所有的客户端,然后从中获取数据
		for (auto iter : _clients)
		{
			//因为_clients是一个map,因此每次iter返回一个pair,其first成员为key(SOCKET),value成员为value(ClientSocket)
			if (FD_ISSET(iter.second->sockfd(), &fdRead))
			{
				//如果RecvData出错,那么就将该客户端从_client中移除
				if (-1 == RecvData(iter.second))
				{
					if (_pNetEvent)
						_pNetEvent->OnClientLeave(iter.second); //通知主服务器有客户端退出
					delete iter.second;
					_clients.erase(iter.first);
					_clients_change = true; //原因同上
				}
			}
		}
#endif // _WIN32

	}
	return false;
}

int CellServer::RecvData(ClientSocket* pClient)
{
	int _nLen = recv(pClient->sockfd(), _recvBuff, 1, 0);
	_pNetEvent->OnNetRecv(pClient);
	if (_nLen < 0) {
		//std::cout << "recv函数出错!" << std::endl;
		return -1;
	}
	else if (_nLen == 0) {
		//std::cout << "客户端<Socket=" << pClient->sockfd() << ">:已退出!" << std::endl;
		return -1;
	}

	memcpy(pClient->msgBuff() + pClient->getLastPos(), _recvBuff, _nLen);
	pClient->setLastPos(pClient->getLastPos() + _nLen);
	while (pClient->getLastPos() >= sizeof(DataHeader))
	{
		DataHeader* header = (DataHeader*)pClient->msgBuff();
		if (pClient->getLastPos() >= header->dataLength)
		{
			//剩余未处理消息缓冲区的长度
			int nSize = pClient->getLastPos() - header->dataLength;
			//处理网络消息
			OnNetMessage(pClient, header);
			//处理完成之后,将_recvMsgBuff中剩余未处理部分的数据前移
			memcpy(pClient->msgBuff(), pClient->msgBuff() + header->dataLength, nSize);
			pClient->setLastPos(nSize);
		}
		else {
			//消息缓冲区剩余数据不够一条完整消息
			break;
		}
	}
	return 0;
}

void CellServer::OnNetMessage(ClientSocket* pClient, DataHeader* header)
{
	//调用主服务OnNetMsg事件
	_pNetEvent->OnNetMsg(pClient, header);

	switch (header->cmd)
	{
	case CMD_LOGIN: //如果是登录
	{
		//Login *login = (Login*)header;
		//std::cout << "服务端:收到客户端<Socket=" << pClient->sockfd() << ">的消息CMD_LOGIN,用户名:" << login->userName << ",密码:" << login->PassWord << std::endl;

		//此处可以判断用户账户和密码是否正确等等(省略)

		//返回登录的结果给客户端
		//LoginResult ret;
		//pClient->SendData(&ret);
	}
	break;
	case CMD_LOGOUT:  //如果是退出
	{
		//Logout *logout = (Logout*)header;
		//std::cout << "服务端:收到客户端<Socket=" << pClient->sockfd() << ">的消息CMD_LOGOUT,用户名:" << logout->userName << std::endl;

		//返回退出的结果给客户端
		//LogoutResult ret;
		//pClient->SendData(&ret);
	}
	break;
	default:  //如果有错误
	{
		//std::cout << "服务端:收到客户端<Socket=" << pClient->sockfd() << ">的未知消息消息" << std::endl;

		//返回错误给客户端,DataHeader默认为错误消息
		//DataHeader ret;
		//pClient->SendData(&ret);
	}
	break;
	}
}

#endif

服务端测试程序(server.cpp) 

  • 如下所示,与之前文章比较,无任何变化
#include "EasyTcpServer.hpp"
#include "MessageHeader.hpp"

int main()
{
	EasyTcpServer server;
	server.Bind("192.168.0.105", 4567);
	server.Listen(5);
	server.Start(4);

	while (server.isRun())
	{
		server.Onrun();
	}

	server.CloseSocket();
	std::cout << "服务端停止工作!" << std::endl;

	getchar();  //防止程序一闪而过
	return 0;
}

客户端测试程序(client.cpp)

  • 新增一个全局变量sendCount,用来代表所有线程send()函数执行的次数
  • 新增一个全局变量readyCount,用来表示每个客户端线程就绪的数量
  • main()中每1秒打印一次send()函数执行的次数,然后将sendCount重新置为0,开始下一秒技术
  • 最终代码如下:
#include "EasyTcpClient.hpp"
#include "CELLTimestamp.hpp"
#include <thread>
#include <atomic>

bool g_bRun = false;
const int cCount = 100;        //客户端的数量
const int tCount = 4;          //线程的数量
std::atomic_int sendCount = 0; //send()函数执行的次数
std::atomic_int readyCount = 0;//代表已经准备就绪的线程数量
EasyTcpClient* client[cCount]; //客户端的数组


void cmdThread();
void sendThread(int id);

int main()
{
	g_bRun = true;

	//UI线程,可以输入命令
	std::thread t(cmdThread);
	t.detach();

	//启动发送线程
	for (int n = 0; n < tCount; ++n)
	{
		std::thread t(sendThread, n + 1);
		t.detach();
	}

	//每1秒中打印一次信息(其中包括send()函数的执行次数)
	CELLTimestamp tTime;
	while (true)
	{
		auto t = tTime.getElapsedSecond();
		if (t >= 1.0)
		{
			printf("time<%lf>,thread numer<%d>,client number<%d>,sendCount<%d>\n",
				t, tCount, cCount, static_cast<int>(sendCount / t));
			sendCount = 0;
			tTime.update();
		}
		Sleep(1);
	}

	return 0;
}

void cmdThread()
{
	char cmdBuf[256] = {};
	while (true)
	{
		std::cin >> cmdBuf;
		if (0 == strcmp(cmdBuf, "exit"))
		{
			g_bRun = false;
			break;
		}
		else {
			std::cout << "命令不识别,请重新输入" << std::endl;
		}
	}
}

void sendThread(int id)
{
	/*
		下面这几个变量是为了平均每个线程创建的客户端的数量:
			例如,本次测试时客户端数量为1000,线程数量为4,那么每个线程应该创建250个客户端
				线程1:c=250,begin=0,end=250
				线程2:c=250,begin=250,end=500
				线程3:c=250,begin=500,end=750
				线程4:c=250,begin=750,end=1000
	*/
	int c = cCount / tCount;
	int begin = (id - 1)*c;
	int end = id*c;

	for (int n = begin; n < end; ++n) //创建客户端
	{
		client[n] = new EasyTcpClient;
	}
	for (int n = begin; n < end; ++n) //让每个客户端连接服务器
	{
		client[n]->ConnectServer("192.168.0.105", 4567);
	}
	printf("Thread<%d>,Connect=<begin=%d, end=%d>\n", id, (begin + 1), end);

	
	//将readyCount,然后判断readyCount是否达到了tCount
	//如果没有,说明所有的线程还没有准备好,那么就等待所有线程都准备好一起返回发送数据
	readyCount++;
	while (readyCount < tCount)
	{
		std::chrono::microseconds t(10);
		std::this_thread::sleep_for(t);
	}

	//这里定义为数组,可以随根据需求修改客户端单次发送给服务端的数据包数量
	const int nNum = 1;
	Login login[nNum];
	for (int n = 0; n < nNum; ++n)
	{
		strcpy(login[n].userName, "dongshao");
		strcpy(login[n].PassWord, "123456");
	}
	//在外面定义nLen,就不用每次在for循环中SendData时还要去sizeof计算一下login的大小
	int nLen = sizeof(login);
	//循环向服务端发送消息
	while (g_bRun)
	{
		for (int n = begin; n < end; ++n)
		{
			if (client[n]->SendData(login, nLen) != SOCKET_ERROR)
			{
				sendCount++;
			}
			//client[n]->Onrun();
		}
	}

	//关闭客户端
	for (int n = begin; n < end; ++n)
	{
		client[n]->CloseSocket();
		delete client[n];
	}

	printf("thread:all clients close the connection!\n");
}

二、测试1

  • 客户端:修改client.cpp,使其执行4个线程,4个客户端连接,每send()一次发送1个数据包

  • 服务端:server.cpp不变,每次Start 4个线程(也就是EasyTcpServer中有4个CellServer子服务器接收数据)接收数据,recv()每执行一次只接收1字节

测试结果

  • 先开启一个服务端(左侧),再开启一个客户端(右侧):
    • 可以看到每秒服务端recv()执行的次数大概为40万次左右,接收的数据包为4000个左右。因为recv()函数每次只接收1字节的数据,单个数据包为100字节,所以4000*100=40万

  • 现在我们保持服务端不变(左侧所示),然后逐个开启多个客户端(右侧所示,大概有七八个):
    • 左侧为服务端:当逐个增加客户端数量的时候,其recvCount呈现线性增长,当客户端达到七个的时候,其recv()执行次数稳定在110万左右,当再次增加客户端的数量,recvCount也不会再增加了,可以说是达到了极限
    • 右侧为客户端:可以看到有的客户端sendCount=0,代表send()函数没有执行,因为服务端接收速率小于服务端的发送速率,导致客户端发送缓冲区累计,因此客户端的send()函数阻塞,导致客户端send()函数没有执行

  • 查看server.cpp的性能分析:
    • 可以看到select已经不再是影响性能的主要因素了
    • RecvData()才是执行次数最多的了,达到我们想要的目的了,因为我们就是需要程序多在数据接收与发送的地方多执行,而降低在select()函数上面所花费的功夫

三、测试2

  • 客户端:修改client.cpp,使其执行4个线程,400个客户端连接,其余不变同上

  • 服务端:不变,同上

测试结果

  • 先开启一个服务端(左侧),再开启一个客户端(右侧):
    • 可以看到每秒服务端recv()执行的次数大概为140万次左右,接收的数据包为14000个左右

  • 现在我们保持服务端不变(左侧所示),然后逐个开启多个客户端(右侧所示,大概有两三个):
    • 左侧为服务端:当逐个增加客户端数量的时候,其recvCount几乎没有变化,其recv()执行次数稳定在120万左右,当再次增加客户端的数量,recvCount也不会再增加了,可以说是达到了极限
    • 右侧为客户端:情况同之前的测试

  • 查看server.cpp的性能分析:
    • 可以看到select已经不再是影响性能的主要因素了
    • RecvData()才是执行次数最多的了,达到我们想要的目的了,因为我们就是需要程序多在数据接收与发送的地方多执行,而降低在select()函数上面所花费的功夫

 

四、总结

  • 上面的测试用到的线程数目比较固定,当然如果更改线程数目,或者在线程数不同的CPU的系统上运行,效果会不一致,但是在本次实验环境下可以看出,recv()函数的执行次数大致在120左右
  • 通过增加recv()函数的执行次数,我们将程序运行时的主要运行核心从select身上转移到了数据的接收身上,这正是我们想要的,当然,实际情况不可能让recv()函数每次都只接受1字节的数据,此处只是为了演示,在后面会继续优化,将程序的运行核心从其他地方转到数据的接收身上
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

董哥的黑板报

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值