GPU部署
v100显卡
10核CPU
electra small 90rps
GPU占用率25%
CPU占用200%
CPU部署
67rps
CPU占用1000%
结论:
1.tf能用完所有CPU核心,即才用了多进程部署,并行
2.tf对GPU是串行的,没有用完所有GPU
3.对于矩阵计算规模小,即小模型的部署CPU更合适,CPU能实现对大规模请求的并行,易高并发,但无法对矩阵计算并行,单次请求时间不会减小
4.对于大型矩阵计算的大模型,GPU对矩阵并行 ,一次推理速度能快很多,但无法对多次请求进行并行,难实现高并发