低空视角,目标追踪Roboflow和YOLO哪个效果更好?


低空视角,目标追踪Roboflow和YOLO哪个效果更好?

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

以下文章来源于微信公众号:GIS小丸子
作者:深度抑郁患者
链接:https ://mp.weixin.qq.com/s/4ZDRSoxFfCvkiBOfM7jHzA
本文仅用于学术分享,如有侵权,请联系后台作删文处理
导读
Roboflow开源了目标跟踪库trackers,支持SORT和DeepSORT,计划引入更高性能算法。与UltralyticsYOLO对比测试发现,YOLO在跨帧稳定性上更优。
知名视觉AI开发平台Roboflow刚刚开源了目标追踪算法库trackers,该团队前段时间刚开源了性能超越YOLO的基于Transformer的目标检测算法库rf-deter。
目前trackers支持SORT和DeepSORT算法,未来陆续也会支持效果更好的ByteTrack、OC-SORT、BoT-SORT等目标跟踪算法(MOTA为多目标跟踪的准确度)。
当然除了Roboflow之外,UltralyticsYOLO也是支持目标跟踪的,目前已经实现了BoT-SORT和ByteTrack算法的支持。所以这次正好进行一个对比,当然类似的还有华盛顿大学开源的基于SAM2的samurai,也比较热门,目前已经达到了6.7kstars,但是部署需要GPU环境,所以本次就没有部署。
所谓的SORT其实就是SimpleOnlineAndRealtimeTracking,主要包括如下几个过程,对象检测是基础:
1、物体检测:该过程从检测视频单帧中的物体开始。本次的Roboflow的trackers的对象检测就同时支持YOLO和RTDETR两种检测的算法。
2、分配唯一ID:每个被识别出来的对象都会被分配一个唯一ID用于跟踪以及和其他对象区别开。
3、跟踪运动跨帧追踪:跟踪算法在后续帧中跟踪物体,更新其位置,同时保持与其唯一ID的关联。
4、处理遮挡:如果物体暂时从视图中消失(例如被其他物体遮挡),系统会确保在物体再次出现时恢复跟踪。
5、更新对象信息:物体移动时,其位置和属性(如速度或方向)会不断更新,以反映随时间发生的变化。
Roboflow和Ultralytics这两家公司的定位都很类似:让人工智能变简单,因为他们亲身感受到了自己训练和部署模型的困难,所以就希望通过工具化以及平台化的方式来让AI变得能够开箱即用,所以这也是Roboflow和Ultralytics用户数量能够快速增长的原因,而且去年Roboflow也完成4000万美元的B轮融资。
对于Roboflow和Yolo的目标跟踪对比,首先在数据集方面,我选择了目前最大的开源低空数据集VisDrone-SOT下的一些图片序列数据,因为正好也评估一下当前低空项目的目标跟踪用哪一个算法更为合适。
但是由于这些数据集合是通过图片序列的方式给出的,而目标跟踪需要的都是视频数据,所以需要借助ffmpeg这样的工具来将这些连续的图片序列转换成为单个视频。
对于尺寸能够被2整除的就可以直接使用如下的命令进行转换:
ffmpeg-fimage2-iuav0000137_00458_v/%7d-c:vlibx264-r30uav0000137_00458_v.mov
而如果图片尺寸不能被2整除就需要一些归一化的处理:

然后选择如下两个视频来做目标追踪的测试:
使用Roboflow.track的效果如下(需要放大横屏):
使用YOLO.track的效果如下:
整体对比下来,二者的对象检测基本上是差不多的,因为代码里面对象检测部分配置的都是YOLOv11m.pt,但是在跨帧稳定性方面,YOLO的对象跟踪相对来说比较稳定,而且都会出现跟踪失败,重新分配ID的情况,但是Roboflow的失败的频率相对于YOLO频率更高一些,即使后面切换了RTDETR版本的对象检测,情况也是差不多的,但是这个部分呢估计随着Roboflow集成MOTA更高的算法之后,这部分应该可以得到改善。
欢迎加入《AI未来星球》,一起成长
扫描下方二维码即可加入~
你可以获得什么?
1、大白之前花费10W+购买,AI行业各场景私有数据集下载,星球内倾情分享;2、AI行业研发、产品、商业落地问题咨询(目前AI公司创业中),都可获高质量解答,有效期一年,无限次提问,有问必答。3、定期邀请AI行业各类嘉宾分享,创业/商业等方面的经验!
帮助你解决遇到的实际问题,升职加薪!
大家一起加油!


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录