論文
1.どんなものか
データセットのきょだいかやそれに伴うモダリティの細分化から,特定のせいしつにたいして特化したデータサブセットを効率的に選択する技術の必要性はより増している. この問題に対してPIRSMをさまざまな劣モジュラ情報測定のインスタンス化とパラメータ化により定義してクエリ集合との関連性,プライベート集合との比関連性,選択されたデータ点間の多様性 など様々な重要な要素のモデル化を可能にする.また,要素間のパラメータのトレードオフについても考察
2.先行研究との差分
能動学習や学習の高速化の分野が関連研究として挙げられる.これに対してPRISMの目的は「要約」である.過去の研究例としてテキスト,動画要約についてクエリあり,なしでそれぞれ関連研究が存在する. PRISMは要約の異なる趣旨に対して統一的な処理を提供する最初の試み.
3.技術や研究のキモ
前提となる知識,要点について以下にまとめる.
劣モジュラ関数
基底集合V = {1,2,3,...,n}と関数f $2^v \longrightarrow R$について$f(j|X) ≧ f(j|Y), ∀X ⊆ Y ⊆ V, j∈Y$ を満たすような部分集合が部分モジュラーである.サブモジュラー条件付き利得(CG):
集合A,P⊆Vが与えられたとき、CGであるf(A|P)はPにAを加えたときの関数値の増加分で$f(A|P)=f(A∪P)-f(P)$と表せる. ここで直観的な判断としては,f(A|P)はAとPが互いにどれほど異なるかを測定するものである.
サブモジュラー情報量(MI):
集合A,Q⊆Vが与えられたとき、MIは$(A; Q) = f(A)+f(Q)-f(A∪Q)$と定義される. 直感的には、これはQとAの間の類似度を測定するものであり、Qはクエリセットである。
サブモジュラー条件付き相互情報(CMI)
CMIはCGとMIを用いて$(A; Q|P) = f(A∪P) + f(Q∪P) - f(A∪Q∪P) - f(P)$と表される. 直感的には、CMIは、AとQの相互類似度とPからの集団非類似度を共同でモデル化するものである.
4.有効性の証明
online hard example mining(OHEM)手法 による評価及び,COCOに対する実験で証明.
