
“全网最全”LLM推理框架集结营 | 看似微不足道,却决定着AIGC项目的成本、效率与性能!
TensorRTLLM包含用于创建执行这些TensorRT引擎的Python和C++运行时的组件。它还包括一个与NVIDIA Triton推理服务器集成的后端;为LLM服务的生产质量体系。使用TensorRT LLM构建的模型可以在各种配置上执行,从单个GPU到具有多个GPU的多个节点(使用Tensor并行性和/或管道并行性)。
垃圾分类
STN
直线检测
人脸检测
轻量级模型
遥感目标检测
视频理解
混合精度训练
文本检测
模型量化
图像增强
通用Tricks
GPU主机配置
GitHub使用指南
linux
opencv
caffe
pycaffe
matcaffe
matlab
tensorflow
tensorboar
深度学习
各种实用链接
各种资料集
CV领域
深度学习框架
计算机视觉论文
人像分割
视觉目标跟踪算法
3D点云
目标检测
python
模型压缩与加速 
