README 1.6 KB

123456789101112131415161718192021222324252627282930
  1. 实习期间工作代码放在245服务器中/data/zjw路径下
  2. video:
  3. 处理视频相关代码在video文件夹中。其中HMDB_clip.py是主要的裁剪视频(将动作片段裁出来,resize成512*512)的代码。其余代码主要用于将视频格式统一,如重命名、将MP4视频转化为AVI等。
  4. 处理后的视频在245机器上,路径为/data/humaocheng/action_classification/filtered_output_zjw,未处理的视频数据集在/data/humaocheng/action_classification/new_datasets
  5. st-gcn:
  6. ST-GCN的实现代码
  7. 如果要进行预测,命令行为python main.py predict。 如果要修改输入的数据集,可以修改 processor/predict.py 文件
  8. 如果要进行训练,命令行为 python main.py recognition -c config/st_gcn/kinetics-skeleton/train.yaml
  9. py-skl:
  10. ST-GCN++代码
  11. 负责预测的类为ActionPredict,可以直接被使用。路径在demo/action_predict.py。可以修改demo/test.py 中的config和数据集,自定义需要预测的数据
  12. 如果要进行训练,可以使用命令
  13. bash tools/dist_train.sh ${CONFIG_FILE} ${NUM_GPUS} [optional arguments]
  14. # For example: train STGCN++ on NTURGB+D XSub (3D skeleton, Joint Modality) with 8 GPUs, with validation, and test the last and the best (with best validation metric) checkpoint.
  15. bash tools/dist_train.sh configs/stgcn++/stgcn++_ntu60_xsub_3dkp/j.py 8 --validate --test-last --test-best
  16. 也可以使用软链接在pycharm中运行 \pyskl-main\distributed\launch.py 参数为
  17. -m
  18. torch.distributed.launch
  19. --nproc_per_node=2
  20. --master_port=-29500
  21. /data/zjw/pyskl-main/tools/train.py
  22. /data/zjw/pyskl-main/configs/posec3d/x3d_shallow_ntu60_xsub/joint.py
  23. --validate
  24. --test-best