7. 1. Base class(学習用のclass)の平均と分
散を計算しておく
2. Novel class(予測する class)をガウス
分布っぽくする
a. Tukey’s Ladder of Powers
Transformation
3. サンプルとBase classの平均との距離を
計算し、Topkを記録する(Euclidean
distance)
4. Novel classの平均と分散を較正する
5. 得たガウス分布からデータをサンプリン
グする
6. 拡張したデータと取り入れて学習する
Distribution Calibration(DC)
7
8. Distribution Calibration(DC)
8
1. Base class(学習用のclass)の平均と分
散を計算しておく
2. Novel class(予測する class)をガウス
分布っぽくする
a. Tukey’s Ladder of Powers
Transformation
3. サンプルとBase classの平均との距離を
計算し、Topkを記録する(Euclidean
distance)
4. Novel classの平均と分散を較正する
5. 得たガウス分布からデータをサンプリン
グする
6. 拡張したデータと取り入れて学習する
9. Experiments
9
1. 他の手法と比較して、有効と言えるのか?
How does our distribution calibration strategy perform compared to the state-of-the-art methods?
1. 較正したデータ分布はどうなっているのか?(可視化)
What does calibrated distribution look like? Is it an accurate approximation for this class?
1. Tukey’s Ladder of Power transformationの必要性?
How does Tukey’s Ladder of Power transformation interact with the feature generations? How important
is each in relation to performance?
データセット:
1. miniImageNet(base class: 64, validation class: 16, novel class: 20)
2. tieredImageNet(base class: 351, validation class: 97, novel class: 160)
3. CUB(鳥)(base class: 100, validation class: 50, novel class: 50)