Skip to content

Latest commit

 

History

History
156 lines (114 loc) · 7.85 KB

README_cn.md

File metadata and controls

156 lines (114 loc) · 7.85 KB

简体中文 | English

CenterTrack (Tracking Objects as Points)

内容

模型库

MOT17

训练数据集 输入尺度 总batch_size val MOTA test MOTA FPS 配置文件 下载链接
MOT17-half train 544x960 32 69.2(MOT17-half) - - config download
MOT17 train 544x960 32 87.9(MOT17-train) 70.5(MOT17-test) - config download
MOT17 train(paper) 544x960 32 - 67.8(MOT17-test) - - -

注意:

  • CenterTrack默认使用2 GPUs总batch_size为32进行训练,如改变GPU数或单卡batch_size,最好保持总batch_size为32去训练。
  • val MOTA可能会有1.0 MOTA左右的波动,最好使用2 GPUs和总batch_size为32的默认配置去训练。
  • MOT17-half train是MOT17的train序列(共7个)每个视频的前一半帧的图片和标注用作训练集,而用每个视频的后一半帧组成的MOT17-half val作为验证集去评估得到val MOTA,数据集可以从此链接下载,并解压放在dataset/mot/文件夹下。
  • MOT17 train是MOT17的train序列(共7个)每个视频的所有帧的图片和标注用作训练集,由于MOT17数据集有限也使用MOT17 train数据集去评估得到val MOTA,而test MOTA为交到MOT Challenge官网评测的结果。

快速开始

1.训练

通过如下命令一键式启动训练和评估

# 单卡训练(不推荐)
CUDA_VISIBLE_DEVICES=0 python tools/train.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml --amp
# 多卡训练
python -m paddle.distributed.launch --log_dir=centertrack_dla34_70e_mot17half/ --gpus 0,1 tools/train.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml --amp

注意:

  • --eval暂不支持边训练边验证跟踪的MOTA精度,如果需要开启--eval边训练边验证检测mAP,需设置注释配置文件中的mot_metric: Truemetric: MOT
  • --amp表示混合精度训练避免显存溢出;
  • CenterTrack默认使用2 GPUs总batch_size为32进行训练,如改变GPU数或单卡batch_size,最好保持总batch_size仍然为32;

2.评估

2.1 评估检测效果

注意首先需要注释配置文件中的mot_metric: Truemetric: MOT:

### for detection eval.py/infer.py
mot_metric: False
metric: COCO

### for MOT eval_mot.py/infer_mot_mot.py
#mot_metric: True # 默认是不注释的,评估跟踪需要为 True,会覆盖之前的 mot_metric: False
#metric: MOT # 默认是不注释的,评估跟踪需要使用 MOT,会覆盖之前的 metric: COCO

然后执行以下语句:

CUDA_VISIBLE_DEVICES=0 python tools/eval.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml -o weights=output/centertrack_dla34_70e_mot17half/model_final.pdparams

注意:

  • 评估检测使用的是tools/eval.py, 评估跟踪使用的是tools/eval_mot.py

2.2 评估跟踪效果

注意首先确保设置了配置文件中的mot_metric: Truemetric: MOT

然后执行以下语句:

CUDA_VISIBLE_DEVICES=0 python tools/eval_mot.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml -o weights=output/centertrack_dla34_70e_mot17half/model_final.pdparams

注意:

  • 评估检测使用的是tools/eval.py, 评估跟踪使用的是tools/eval_mot.py
  • 跟踪结果会存于{output_dir}/mot_results/中,里面每个视频序列对应一个txt,每个txt文件每行信息是frame,id,x1,y1,w,h,score,-1,-1,-1, 此外{output_dir}可通过--output_dir设置,默认文件夹名为output

3.预测

3.1 预测检测效果

注意首先需要注释配置文件中的mot_metric: Truemetric: MOT:

### for detection eval.py/infer.py
mot_metric: False
metric: COCO

### for MOT eval_mot.py/infer_mot_mot.py
#mot_metric: True # 默认是不注释的,评估跟踪需要为 True,会覆盖之前的 mot_metric: False
#metric: MOT # 默认是不注释的,评估跟踪需要使用 MOT,会覆盖之前的 metric: COCO

然后执行以下语句:

CUDA_VISIBLE_DEVICES=0 python tools/infer.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml -o weights=output/centertrack_dla34_70e_mot17half/model_final.pdparams --infer_img=demo/000000014439_640x640.jpg --draw_threshold=0.5

注意:

  • 预测检测使用的是tools/infer.py, 预测跟踪使用的是tools/infer_mot.py

3.2 预测跟踪效果

注意首先确保设置了配置文件中的mot_metric: Truemetric: MOT

然后执行以下语句:

# 下载demo视频
wget https://bj.bcebos.com/v1/paddledet/data/mot/demo/mot17_demo.mp4
# 预测视频
CUDA_VISIBLE_DEVICES=0 python tools/infer_mot.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml --video_file=mot17_demo.mp4 --draw_threshold=0.5 --save_videos -o weights=output/centertrack_dla34_70e_mot17half/model_final.pdparams
#或预测图片文件夹
CUDA_VISIBLE_DEVICES=0 python tools/infer_mot.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml --image_dir=mot17_demo/ --draw_threshold=0.5 --save_videos -o weights=output/centertrack_dla34_70e_mot17half/model_final.pdparams

注意:

  • 请先确保已经安装了ffmpeg, Linux(Ubuntu)平台可以直接用以下命令安装:apt-get update && apt-get install -y ffmpeg
  • --save_videos表示保存可视化视频,同时会保存可视化的图片在{output_dir}/mot_outputs/中,{output_dir}可通过--output_dir设置,默认文件夹名为output

4. 导出预测模型

注意首先确保设置了配置文件中的mot_metric: Truemetric: MOT

CUDA_VISIBLE_DEVICES=0 python tools/export_model.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml -o weights=https://paddledet.bj.bcebos.com/models/mot/centertrack_dla34_70e_mot17half.pdparams

5. 用导出的模型基于Python去预测

注意首先应在deploy/python/tracker_config.yml中设置type: CenterTracker

# 预测某个视频
# wget https://bj.bcebos.com/v1/paddledet/data/mot/demo/mot17_demo.mp4
python deploy/python/mot_centertrack_infer.py --model_dir=output_inference/centertrack_dla34_70e_mot17half/ --tracker_config=deploy/python/tracker_config.yml --video_file=mot17_demo.mp4 --device=GPU --save_images=True --save_mot_txts
# 预测图片文件夹
python deploy/python/mot_centertrack_infer.py --model_dir=output_inference/centertrack_dla34_70e_mot17half/ --tracker_config=deploy/python/tracker_config.yml --image_dir=mot17_demo/ --device=GPU --save_images=True --save_mot_txts

注意:

  • 跟踪模型是对视频进行预测,不支持单张图的预测,默认保存跟踪结果可视化后的视频,可添加--save_mot_txts(对每个视频保存一个txt)或--save_mot_txt_per_img(对每张图片保存一个txt)表示保存跟踪结果的txt文件,或--save_images表示保存跟踪结果可视化图片。
  • 跟踪结果txt文件每行信息是frame,id,x1,y1,w,h,score,-1,-1,-1

引用

@article{zhou2020tracking,
  title={Tracking Objects as Points},
  author={Zhou, Xingyi and Koltun, Vladlen and Kr{\"a}henb{\"u}hl, Philipp},
  journal={ECCV},
  year={2020}
}