实验记录05.09.2023
sixwalter Lv6

实验总结05.09.2023

joints分支

实验一:调lr+预训练joints数据

image-20230510094950231

加入joints数据后发现效果一般,考虑是不是joints本身训练的问题,调整完学习率之后发现有效果:

image-20230510090908675

没想到改了学习率之后效果这么好,有点惊讶:

image-20230510091019743

修改代码,直接载入预训练好的pose分支模型:

image-20230510135959545

目前已经比baseline效果好了,现在的**结果已经达到了93%**,很接近SOTA方法(SOTA:93.6%),加入以下实验精度肯定会更高:

实验二:对数据进行标准化

实验三:增加坐标位置编码

实验四:增加时间位置编码

实验五:增加节点类型编码

实验分支

实验一:使用光流特征

实验二:更换backbone(inceptionV3)

实验三:使用tokenizer

已尝试,效果可以,可以合入主分支中

实验四:使用自适应的decoder代替maxpooling

已尝试,效果可以,可以合入主分支中

实验五:使用数据增强方法

主分支

实验一:加入全局场景自注意力(精度)

已尝试,效果可以,已合入主分支中

实验二:加入层次式的推理方法(精度)

我们可以通过得到的pose特征,使用自注意力机制后,得到优化后的pose特征,将其组合成为人的特征,并与rgb的人特征进行concat,再使用注意力机制优化。

image-20230510170455828

实验三:加入交互推理模块(精度)

  1. 先看看composer的推理模块
  2. 对人与人之间的交互进行建模,利用提取的交互信息增强个体特征,这里考虑修改DIN模块

实验四:Transformer优化(精度)

目前代码其实没有用transformer,加入transformer也可,看精度是否提升

实验五:减少计算复杂度(性能)

使用tokenizer或是maskencoder,希望结合两者的优势,看代码好改不,不好改的话用tokenizer即可(先用这个)

  • Post title:实验记录05.09.2023
  • Post author:sixwalter
  • Create time:2023-05-09 00:00:00
  • Post link:https://coelien.github.io/2023/05/09/deep-learning/第一章/实验记录5.09/
  • Copyright Notice:All articles in this blog are licensed under BY-NC-SA unless stating additionally.
 Comments