YOLO系列算法改进方法 | 目录一览表



?魔改YOLO系列算法,助力涨点,助力科研。通过添加注意力机制SE/CBAM/CoordAtt/ECA /SimAM/CrissCrossAttention/ SKAttention/GAMAttention/S2-MLPv2/NAM等;网络轻量化方法通过更换主干特征提取网络为MobileNetV3/ShuffleNetV2/EfficientNetv2/Ghostnet/深度可分离卷积/PP-LCNet/mobileone/Ghostnetv2/ELAN等;优化原yolo算法损失函数为EIoU/SIoU/Alpha-IoU等,助力检测涨点;优化非极大值抑制算法为Soft-nms/DIoU NMS等;构建“Transformer+CNN”结构拟补原卷积网络缺乏长距离建模能力,融入Bottleneck/EfficientFormer/Swin Transformer/Swin Transformer v2.0等,助力涨点;改进特征融合方式为BIFPN/ASFF等,强化不同尺度融合能力;优化锚框生成,改为K-Means++;添加小目标检测层等方法。


YOLO系列算法改进方法 | 目录一览表

??☁️1. 添加SE注意力机制
??☁️2.添加CBAM注意力机制
??☁️3. 添加CoordAtt注意力机制
??☁️4. 添加ECA通道注意力机制
??☁️5. 改进特征融合网络PANET为BIFPN
??☁️6. 增加小目标检测层
??☁️7. 损失函数改进
??☁️8. 非极大值抑制NMS算法改进Soft-nms
??☁️9. 锚框K-Means算法改进K-Means++
??☁️10. 损失函数改进为SIOU
??☁️11. 主干网络C3替换为轻量化网络MobileNetV3
??☁️12. 主干网络C3替换为轻量化网络ShuffleNetV2
??☁️13. 主干网络C3替换为轻量化网络EfficientNetv2
??☁️14. 主干网络C3替换为轻量化网络Ghostnet
??☁️15. 网络轻量化方法深度可分离卷积
??☁️16. 主干网络C3替换为轻量化网络PP-LCNet
??☁️17. CNN+Transformer——融合Bottleneck Transformers
??☁️18. 损失函数改进为Alpha-IoU损失函数
??☁️19. 非极大值抑制NMS算法改进DIoU NMS
??☁️20. Involution新神经网络算子引入网络
??☁️21. CNN+Transformer——主干网络替换为又快又强的轻量化主干EfficientFormer
??☁️22. 涨点神器——引入递归门控卷积(gnConv)
??☁️23. 引入SimAM无参数注意力
??☁️24. 引入量子启发的新型视觉主干模型WaveMLP(可尝试发SCI)
??☁️25. 引入Swin Transformer
??☁️26. 改进特征融合网络PANet为ASFF自适应特征融合网络
??☁️27. 解决小目标问题——校正卷积取代特征提取网络中的常规卷积
??☁️28. ICLR 2022涨点神器——即插即用的动态卷积ODConv
??☁️29. 引入Swin Transformer v2.0版本
??☁️30. 引入10月4号发表最新的Transformer视觉模型MOAT结构
??☁️31. CrissCrossAttention注意力机制
??☁️32. 引入SKAttention注意力机制
??☁️33. 引入GAMAttention注意力机制
??☁️34. 更换激活函数为FReLU
??☁️35. 引入S2-MLPv2注意力机制
??☁️36. 融入NAM注意力机制
??☁️37. 结合CVPR2022新作ConvNeXt网络
??☁️38. 引入RepVGG模型结构
??☁️39. 引入改进遮挡检测的Tri-Layer插件 | BMVC 2022
??☁️40. 轻量化mobileone主干网络引入
??☁️41. 引入SPD-Conv处理低分辨率图像和小对象问题
??☁️42. 引入V7中的ELAN网络
??☁️43. 结合最新Non-local Networks and Attention结构
??☁️44. 融入适配GPU的轻量级 G-GhostNet
??☁️45. 首发最新特征融合技术RepGFPN(DAMO-YOLO)
??☁️46. 改进激活函数为ACON


一、注意力机制添加方法

一般解决问题为:图像待测目标与背景相似,目标难以辨识的检测难点
??☁️1. 添加SE注意力机制
??☁️2.添加CBAM注意力机制
??☁️3. 添加CoordAtt注意力机制
??☁️4. 添加ECA通道注意力机制
??☁️23. 引入SimAM无参数注意力
??☁️31. CrissCrossAttention注意力机制
??☁️32. 引入SKAttention注意力机制
??☁️33. 引入GAMAttention注意力机制
??☁️35. 引入S2-MLPv2注意力机制
??☁️36. 融入NAM注意力机制

二、网络轻量化方法

一般解决问题为:轻量化网络,适应应用部署
??☁️11. 主干网络C3替换为轻量化网络MobileNetV3
??☁️12. 主干网络C3替换为轻量化网络ShuffleNetV2
??☁️13. 主干网络C3替换为轻量化网络EfficientNetv2
??☁️14. 主干网络C3替换为轻量化网络Ghostnet
??☁️15. 网络轻量化方法深度可分离卷积
??☁️16. 主干网络C3替换为轻量化网络PP-LCNet
??☁️40. 轻量化mobileone主干网络引入

三、优化损失函数

一般解决问题为:原损失函数的缺陷不足
??☁️7. 损失函数改进
??☁️10. 损失函数改进为SIOU
??☁️18. 损失函数改进为Alpha-IoU损失函数

四、非极大值抑制

一般解决问题为:同类别目标相互重叠导致错漏检问题
??☁️8. 非极大值抑制NMS算法改进Soft-nms
??☁️19. 非极大值抑制NMS算法改进DIoU NMS

五、“Transformer+CNN”结构

一般解决问题为:拟补全卷积网络缺乏长距离建模能力
??☁️17. CNN+Transformer——融合Bottleneck Transformers
??☁️21. CNN+Transformer——主干网络替换为又快又强的轻量化主干EfficientFormer
??☁️25. 引入Swin Transformer
??☁️29. 引入Swin Transformer v2.0版本

六、特征融合方式改进

一般解决问题为:目标尺度变化多样的问题
??☁️5. 改进特征融合网络PANET为BIFPN
??☁️26. 改进特征融合网络PANet为ASFF自适应特征融合网络

七、优化锚框生成

一般解决问题为:原K-Means算法缺陷
??☁️9. 锚框K-Means算法改进K-Means++

八、激活函数改进

??☁️34. 更换激活函数为FReLU
??☁️46. 改进激活函数为ACON

作者:人工智能算法研究院原文地址:https://blog.csdn.net/m0_70388905/article/details/128103103

%s 个评论

要回复文章请先登录注册