自动驾驶全栈算法工程师 – 百度云盘 – 下载

图片[1]-自动驾驶全栈算法工程师 – 百度云盘 – 下载-萌萌家图书馆

课程亮点:

自动驾驶全栈算法工程师

BEV感知,毫米波雷达视觉融合,YOLO全家桶系列
CUDA加速与Tensort模型部署,多传感器标定,规划控制

​2D目标检测:YOLOv3~YOLOv8
BEV感知:纯视觉+多模态融合方案
毫米波雷达视觉融合:目标级融合+特征级融合方案
CUDA加速与Tensort模型部署:基于TensorRT下的CNN/Transformer/目标检测/BEV四大基本任务部署实战
CUDA优化加速详解
多传感器标定:Lidar/Camera/IMU/Radar等20+标定方案
规划控制:础算法讲解、横纵解/横纵联合框架、Djkstra A*、RRT*StateLattice Planmer、OP路径优化和基
于MPc的轨迹跟踪多个实战。
BEV感知
BEV 感知算法介绍
11BEV感知算法的概念
1.2BEV感知算法数据形式
1.3BEV开源数据集介绍
1.3.1开源数据集 KITT1
1.3.2开源数据集nuScenes
1.4BEV感知方法分类
1.4.1纯视觉方案
1.4.2多模态方案
1.5BEV感知算法的优劣
1.6BEV感知算法的应用介绍
1.7课程框架介绍与配置
二BEV 感知算法基础模块讲

2.1.从2D到3D转换税央
3.5.BEVFusion
3.51算法动机&开创性思路
3.52主体结构
3.53损失活数
3.5.4性能对比
36LV融合算法BEVFusion实战
3.6.1环境配置
3.6.2代码详解
3.63实战效果
四基于环视Camera的BEV
感知算法
4.1.环视背景介绍
4.2.环视思路介绍
4.3.主流基于环视Camcra的算法详解
4.4DETR3D
4.41法动机&开创性思路
4.73损失函数
4.7.4性能对比
4.8.PETR
4.8.1算法动机&开创性思路
4.8.2主体结构
4.8.3损失函数
4.8.4性能对比
4.85 PETRv2
4.9.BEVDepth
4.9.1算法动机&开创性思路
4.9.2主体结构
4.9.3损失函数
4.9.4性能对比
4.10.BEVDisti1
4.10.1 算法动机&开创性思路
4.10.2主体结构
4.103 损失丽数
4+
2.1.2 Pscudo Lidar
22从3D到2D转换模块
2.2.1 Explicit Mapping
2.22 1mplicit Mapping
23BEV感知中的Transforer
三LiDAR和Camera融合的
BEV感知算法
3.1.融合背量介绍
3.2融合思路介绍
3.3融合性能优劣
3.4BEVSAN
3.4.1算法动机&开创性思路
3.4.2主体结构
3.43损大雨数
3.4.4性能对比
4.4.3损失丽数
4.4.4性能对比
4.5.BFVFormer
4.5.1算法动机&开创性思路
4.5.2主体结构
4.53损失函数
4.5.4性能对比
4.5.5 BEVFormerV2
4.6.BEVDet
4.6.1算法动机&开国性思路
4.6.2主体结构
4.6,3损失酒数
4.6.4性能对比
4.7.BEVDet4D
4.71算法动机&开创性思路
4.7.2主体结构
411纯视觉感知算法:BEVFomer实战
4.11.1 环境配置
4.11.2 代码详解
4.11.3实战效果
五BEV感知算法实战
5.1大作业:模块化的BEV算法设计
5.1,1 环境配置
5.1.2阳像特征提取模块设计
5.13视角转换模块设计
5.1.4 检期头膜块设计
5.15后处理模块设计
5.1.6优化思考:如何引入时序信息
5.1.7大作业答案
毫米波雷达视觉融合
毫米波雷达介绍
1.1,工作原理和传感器特性
1.2毫米波雷达种类
1.3雷达信号处理与数据格式
1.4.4D毫米波雷达
1.5.雷达/微光雷达/相机特性比较
1.6.毫米波在多个领域应用介绍
1.7.3D/4D雷达领城产品
二、毫米波雷达基础算法详解
2.1毫米波雷达数据处理
21.1FMCW信号解析
212FMCW数担形式
2.2聚类算法
2.21 K-mneans
2 22DBSCAN
2.3匹配算法
2.31牙利匹配算法
2.4,滤波算法
2.41 KF
242EKF
2.4.3 UKF
2.5基于EKF/UKF的雷达后融合感知算法
2.51方案祥解
2.5.2环境配置
2.5.3代码详解
2.5.4 效果展示
三、基于深度学习的点云目标检测
任务
3.1,雷达点云的检测算法背景
3.2.基于原始数据的检测方法:RODNet
3.21数据处理部分
3.3.2网络结构部分
3.24后处理分
3.3.基于稀疏点云的检测:Radar-PointGNN
3.31 数据处理部分
3.3.2网络结构部分
3.3.3Loss部分
3.3.4后处理部分
3.4.基于稀疏点云的检测,Radar-PointNets
3.4.1数处理部分
3.4.2网络结构部分
3.43Loss 部分
3.44后处理部分
四、毫米波雷达视觉融合 2D检测
任务
4.1.RV融合背景介绍
4.2RV融合思路介绍
4.3RV融合常用的指标
4.4RV融合数据集介绍
4.5CRFNet介绍
4.5.1数据处理部分
4.5.2网络结构部分
4.5.3Loss部分
4.5.4 后处理部分
4.6RRPN介绍
4.6.1 数据处理部分
4.6.2网络结构部分
4.6.3Loss 部分
4.6.4后处理部分
4.7.主流融合思路汇总
4.82D特征融合算法实战:SAF-FCOS
4.8.1算法详解
4.8.2环境配置
4.83代码详解
4.8.4效果展示
五、米波雷达视觉融合 3D检测
任务
5.1RV融合背景介绍
5.2RV融合思路介绍
5.3RV融合常用的指标
5.4RV融合数据集介绍
5.5RV融合算法CenlerFusion 详解
5.5.1数据处理部分
5.5.2 网络结构部分
5.53Eoss配分
5.5.4后处理部分
5.6RV融合算法RCBEV详解
5.6.1 数据处理部分
5.6.2网络结构部分
5.63 Loss 部分
5.6.4后处理部分
5.7RV融合算法CRAFT详解
5.7.1 数据处理部分
5.72网络结构部分
5.73Loss部分
5.7.4后处理部分
5.8主流融合思路汇总
5.9RV3D特征融合算法实战:FUTR3D
5.9.1算法解
5,9.2环境配置
5.9.3代码详解
5,9.4效果展示
3.23Losg部分
YOLO全家桶系列
第一章目标检测简介目标检测任务简介2目标检测常用数据集13目标检测常用评测指标4单阶段目标检测综述15两阶段目标检测综述2D目标检测有哪些工业级任务?1.62D目标检测面临的困难1.8YOLO全家桶的发展历程第二章YOLOv3 网络YOLOv3之DarkNet53讲解2.12.2YOLOv3之FPN讲解2.3YOLOv3之Loss讲解YOLOv3之样本匹配讲解2.4第三章YOLOv4网络3.1YOLOv4数据增强3.2CSPNet思想讲解33YOLOv4之CSPDarkNet53讲解3.4YOLOv4之PAFPN讲解35YOLOv4之CIOULoss讲解3.6YOLOv4之样本匹配讲解第四章YOLOv5网络YOLOv5数据增强之Copy-Paste4.14.2YOLOv5之GIOULoss讲解YOLOv5中的Anchor机制43YOLOv5之样本匹配讲解4445YOLOv5之源码讲解4.6YOLOv5训练与推理实战第五章YOLOv6网络RepVGG的结构重参思想5.152YOLOv6之RepBackbone讲解53YOLOv6之Rep-PAFPN讲解54YOLOv6之VFLLoss讲解55YOLOv6之DFLLoss讲解5.6YOLOv6之SIOULoss讲解5.7YOLOv6之TaskAlign匹配讲解58YOLOv6之源码讲解5.9YOLOv6训练与推理实战
第六章YOLOv7网络6.1ELAN的梯度流思想讲解6.2YOLOv7之ELAN-Backbone讲解6.3YOLOv7之ELAN-Neck讲解6U65YOLOv7之样本匹配讲解第七章YOLOv8 网络7.1 YOLOv8之Backbone讲解7.2YOLOv8之Neck讲解7.3YOLOv8之DFLLoss讲解7.4YOLOv8之源码讲解75YOLOv8训练与推理实战第八章YOLOX网络YOLOX之数据增强讲解8.18.2YOLOX之Decoupled-Head 讲解8.3YOLOX之Multi-positives讲解8.4YOLOX之SimOTA匹配讲解8.5YOLOX之源码讲解8.6YOLOX训练与推理实战第九章PP-YOLOE 网络YOLOE之CSPRepResNet讲解9.19.2YOLOE之ET-Head讲解9.3YOLOE之VFLLoss讲解YOLOE之DFL Loss讲解9.49.5YOLOE之ATSS样本匹配讲解第十章 DAMO-YOLO网络101 DAMO-YOLO的思想讲解10.2DAMO-YOLO之Backbone讲解10.3DAMO-YOLO之RepGFPN讲解10.4DAMO-YOLO之AlignedOTA 匹配讲解第十一章 YOLOX-PAI 网络YOLOX-PAI之GSConv讲解11.111.2YOLOX-PAI之ASFF-Sim讲解
CUDA加速与Tensort模型部署
,并行处理与 GPU体系架构四。TensorRT 模型部署优化七,实战:部署YOLO8 检测器1.1并行处理简介41校型部署的基础知识7.1YOLOv8的ONNX模型分析1.1.1串行处理与并行处理的区别4.1.1 FLOPS与TOPS711YOLOv8的模型结构及ONNX分析1.1.2并行处理的概念4.1.2Roofinemodel 与计算客度71.20NNX导出及ONNX simplif1;1.3常见的并行处理4.13FP32FP16NT8NT4/FP8分绍7.2YOLOv8 预型的部署-检测&分刮1.2GPU 并行处盟4.2模型部署的几大澳区7.21剑builder到序列化推理引攀1.21GPU与CPU并行处理4.21FLOPS 并不能衡量模型性能722实现目标检润的基本的Infer1.2.2 Nfemory Latenoy4.2.2TcnsorRT井不能完全依喜7.3处与后处理忧化1.2.3CPU的优化方式4.23.CUDACoe与Tensor Cone 的区别731前处理、后处理与DNN的区别1.2.4GPU的特点7.3.2优化1:Crop&Resize 优化(CUDA加速)4.241×1与depthwise conv 的部署缺点1.3.环场配置4.3,模型部署优化-量化7.33优化2:Sigmoid 西数优化(CPU转CUDA)1.3.1 版本选择:CUDA、CUDNN和TensorRT4.3.1化的基本概会及优点734优化3:NMS计算加速(CUDA加选)7.3.5优化4使用Halide实现自动并行优化1.3.2肥置Dock与vscode/vim 的使用432 介绍OAT 和PTO1,3.3 常男FAQ4.3.3量化Per-tensor与Per-channel73.5将前/后处理移至DNN处理优化1.4.作业,安装TensorRT4.3.4常的量化技巧7.4模型瓶预分析和优化董略4.3.5其他量化方法7.4Insight分析频聚出现memepy 的地方,CUDA 编程入门4.4模型部器优化-号校7.4.2CUDACore,Tensor Core 的判新21CUDA中的线程与线程束4.41模型尊枝的基本概念7.4.3YOLO层对推理速度的影响211执行第一个CUA程序4.4.2等见的Channelpruning与Filer pruning7.4.4YOL0常见的优化策略2.1.2理解CUDA中的Gnd 和 Block4.43模型枝的常见技巧7.5YOLO的PQ量化2.1.3理解cu 和cpp 的相互引用及 Makele4.44分析尊技产生的ovcrhead751FP16量化2.2.使用CUDA进行矩阵乘法75.21N18量化与Calibration五。TensorRT API的基本使用221CUDACore 的知阵乘法计算7.6浅谈Multi-task授型的异步执行优化2.22CUDA中的Eror Handler5.1实战:TensorRTAP]生成引黎实战7.6.1什么是Nfuiti-task2.23GPU的硬件信息获取5.11加载ONNX模型井比较PyTorch的结果7.6.2如何高效实现muti-task模型的部署23,共享内存及BankConlict512构建ResNe/VGG模型及推理7.7作业:YOLOv5的部署及优化2.31如何使用共享内存5.13打印TT优化后的网络结构与精度八实战:部署 BEVFusion 模型5.1.4使用nsigh 分模型性能2.3.2玛BankConflict及其缓解策略2.4,双线管活值5.1.5加晚ONT模型井分析TRT 底层优化8.1。分折 BBVIuslon 在架2.4.1 双线性插信简介5.1.6使用polygaphy分析模型8.1.1 简介BEVFusion5.2实战使用TensorRT对模型优化2.4.2双线性插值的CUDA实现812分析Camerabickbone与融合25作业:构建第一个kemel运数5.21对VGG设置不同的量化策略813分析针对LDAR前 Sparse Conv5.2.2使用Nsight 分析 kemel 医数814融合部分Cameri-LiDAR的DNN三,TensorRT 基础入门5.23构建一个selfattentim模决8.15分析BEVFusion Head3.1.TensorRT简介5.2.4不同版本TRT对atetio的优化8.2NVIDIA-AJ-OT的BEVFusion 分析3.11TensorRT的工作流介绍8.2.1环境搭建与部署洲试六,实战:部署分类器 (CNN&VIT)3.1.2TensorRT的优化极限8.2.2代码流程介绍3.13DNN优化编译器6.1.经典分类器的部署及优化8.23封装RAII接与模块化的封装技巧3.2.TensorRT应用场最6.11 常见CNN 部署8.2.4模型各个模决的拼接方式3.21TensorRT优化的意义6.1.2常见 Transfommer 钢警8.2.5前/后处理的优化方式与分析3.2.2 TensorRT 部的常用方法6.13部署CNN+Trasformer8.3.Nsight 分析 BEVFusion 的起署3.3,TensorRT的模决6.2优化效果分析8.31分析INT8下的BouleNeck3.3.1 1 ayer Fusion6.21分新影响计算密度的因意8.3.2 末来优化方向分析3.3.2 Kcmel Autotiing6.22分析感受野和kcrnelsize的关系84作业在GPU上韶署 BEVFusion3.33 Quantization6.2.3深入理解altention 并优化3.4,如何生成TensorRT 模剩6.3.Tansformr部警优化3.4.1 PyTorch 导出ONNX 模型6.3.1 verlupping patch embedding3.4.20NNX模型转换为TensorRT模型6.3.2 1×1 conv- depthwise conv3.4.3 TensorRT分析6.33 LayerNorm ->BatchNorm3.4.4nsys与nsight分析模型性能6.34 gky gencration with convolution64作业:VT部署优化及iy 测试多传感器标定3.51方法介绍多传感器标定概述3.52 代码实战1.1.多传感器介绍3.6产线标定板布置方法(Lidar/Radar/Camcra/MU等)四多传感器离线标定方法1.2.为什么需要多传感器标定?1.3.传感器标定的难点4.1激光雷达-相机内外参联合标定1.4,传感器标定精度如何进行验证?4.11标定算法详解1.5.多传感器标定的工具箱有哪些?4.1.2如何提升标定精度1.6OpenCalib工具箱介绍4.13代码实战4.2.激光雷达-薇光雷达标定1.7.0penCalb应用场景介绍1.8.OpenCalib 配置使用4.2.1标定算法详解码法战相机内参标定4.3.激光雷达-毫米波雷达标定2.1.相机标定介绍4.31标定算法详解2.2内参常用的标定方法4.3.2 代码实战2.21张正友内参标定方法4.4.激光雷达-惯导标定2.2.2鱼眼内参标定方法4.4.1标定算法详解2.23相机内参评估方法4.4.2代码实战2.3.如何优化标定精度4.5.毫米波雷达-相机标定2.3.1标定板数据采集方式4.5.1标定算法详解2.3.2内参腾变定量评估方法4.5.2代码实战2.4.标定精度验证方法五。多传感器在线标定方法2.5.内外参联合标定方法5.1.激光雷达-相机在线标定3,多传感器产线标定方法5.11在线标定方法详解3.1.产线标定以及标定间标定介绍5.111基于道路特征的在线标定3.2标定间标定方法5.1.1.2基于深度学习的在线标定3.3Lidar2Car产线标定方法5113基于运动估计的在线标定3.3.1方法介绍5.1.2 标定代码实战3.3.2代码实战5.2Camera2Car 在线标定3.4Camcra2Car 产线标定方法5.2.1在线标定方法详解3.4.1相机外参标定以及日矩阵标定5.21.1基于运动估计的在线标定3.4.2相机内外参联合优化5.212基于道路特征的在线标定3.4.3代码实战5.2.2标定代码实战
5.3Lidar2Car在线标定5.31在线标定方法详解5.3.1.1基于运动估计的在线标定5.3.12基于道路特征的在线标定5.3.2标定代码实战5.4Radar2Car在线标定5.4.1在线标定方法详解5.4.1.1基于速度模型的在线标定5.41.2基于位置模型的在线标定5.4.2标定代码实战5.5INS2Car在线标定5.5.1在线标定方法详解5.51.1基于运行估计的在线标定5.5.2标定代码实战六。环视相机标定6.1鱼眼相机内参标定6.1.1标定算法详解6.1.2标定代码实棍6.2环视离线标定621线标定算法详解6.2.2标定代码实战6.3环视在线标定6.3.1在线标定算法详解6.3.2 标定代码实战
3.5,Radar2Cr产线标定方法

© 版权声明
THE END
联系作者 微信 wedaxue bedaxue
点赞0