論文

・ Year : 2021
リンク
github

1.どんなものか

データセットのきょだいかやそれに伴うモダリティの細分化から,特定のせいしつにたいして特化したデータサブセットを効率的に選択する技術の必要性はより増している. この問題に対してPIRSMをさまざまな劣モジュラ情報測定のインスタンス化とパラメータ化により定義してクエリ集合との関連性,プライベート集合との比関連性,選択されたデータ点間の多様性 など様々な重要な要素のモデル化を可能にする.また,要素間のパラメータのトレードオフについても考察

2.先行研究との差分

能動学習や学習の高速化の分野が関連研究として挙げられる.これに対してPRISMの目的は「要約」である.過去の研究例としてテキスト,動画要約についてクエリあり,なしでそれぞれ関連研究が存在する. PRISMは要約の異なる趣旨に対して統一的な処理を提供する最初の試み.

3.技術や研究のキモ

前提となる知識,要点について以下にまとめる.

劣モジュラ関数

基底集合V = {1,2,3,...,n}と関数f $2^v \longrightarrow R$について$f(j|X) ≧ f(j|Y), ∀X ⊆ Y ⊆ V, j∈Y$ を満たすような部分集合が部分モジュラーである.

サブモジュラー条件付き利得(CG):

集合A,P⊆Vが与えられたとき、CGであるf(A|P)はPにAを加えたときの関数値の増加分で$f(A|P)=f(A∪P)-f(P)$と表せる. ここで直観的な判断としては,f(A|P)はAとPが互いにどれほど異なるかを測定するものである.

サブモジュラー情報量(MI):

集合A,Q⊆Vが与えられたとき、MIは$(A; Q) = f(A)+f(Q)-f(A∪Q)$と定義される. 直感的には、これはQとAの間の類似度を測定するものであり、Qはクエリセットである。

サブモジュラー条件付き相互情報(CMI)

CMIはCGとMIを用いて$(A; Q|P) = f(A∪P) + f(Q∪P) - f(A∪Q∪P) - f(P)$と表される. 直感的には、CMIは、AとQの相互類似度とPからの集団非類似度を共同でモデル化するものである.

4.有効性の証明

online hard example mining(OHEM)手法 による評価及び,COCOに対する実験で証明.

5.議論