团队
海上钢琴师,14年工作经验的算法工程师,对算法部署具有丰富的经验,tensorRT_Pro和trtpy项目的作者。
PeterH,深兰科技计算机视觉算法工程师,参与tensorRT_pro和trtpy项目的代码研发与文档支持。
深兰科技高性能部署实验室,提供硬件和课题研究方向的技术支持。
课程内容
本课程讲解tensorRT基础到高级知识,内容从专门设计的精简CUDA开始,到tensorRT基础,再到tensorRT高级项目实战。涉及tensorRT相关的方方面面,一步一步推进学习。
本课程划分为四部分:
第一部分精简CUDA-驱动API:学习CUDA驱动API的使用,错误处理方法,上下文管理方法,了解驱动API所处位置,CUDA的开发习惯
第二部分精简CUDA-运行时API:学习CUDA运行时API的使用,力求精简,力求够用,学会编写核函数加速模型预处理(仿射变换),学习yolov5的后处理加速方法,共享内存的使用
第三部分tensorRT基础:学习tensorRT的模型编译、推理流程,onnx解析器的使用,学习onnx的结构和编辑修改方法,学习int8量化,插件开发流程,简化的插件开发方法,学习动态shape的应用
第四部分tensorRT高级:以项目驱动,学习大量具体的项目案例(分类器、目标检测、姿态检测、场景分割、道路分割、深度估计、车道线检测、huggingface、insightface、mmdetection、onnxruntime、openvino),学习针对深度学习需要的封装技术、多线程技术、框架设计技术
本课程高性能部署项目实践举例:
以下图片是tensorRT高性能部署项目演示图,alphapose, yolo, insightface, unet, token_classification, 旋转框检测,车道线检测与深度估计