kaeken(嘉永島健司)のTech探究ブログ

主に情報科学/情報技術全般に関する知見をポストします。(最近は、特にData Science、機械学習、深層学習、統計学、Python、数学、ビッグデータ)

対照学習(Contrastive Learning)と代表手法 SimCLR まとめ

元論文 2011.00362.pdf

  • 自己教師あり学習(Self-supervised Learning)

    • SSLと略される。
    • ラベル無しデータを用いた教師なし学習の一種。
    • データ自身から自動的にラベルを生成し学習。
    • ディープラーニングを含む機械学習の一部門。
    • 現実の問題に対し、ラベル付きデータを大量に用意するのが困難であるため、注目されている。
    • 教師無し学習の一種として分類される。
  • 対照学習(Contrastive Learning)

    • 対照学習は、自己教師あり学習SSLの一種で、機械学習の手法。
    • ラベル付けせずにデータ同士を比較して特徴量を学習。
    • 肯定的および否定的なインスタンスのペアを比較
    • 目的は、似たデータを近く、異なるデータを遠くに配置すること。
    • 応用領域:コンピュータービジョン、自然言語処理NLP)。
    • 代表的な手法:SimCLR、PCL、BYOL。
  • 教師付き対照学習(SCL, Supervised Contrastive Learning)

    • ラベル付きデータを使用して、モデルが類似および非類似のインスタンスを区別するように訓練
    • モデルはデータポイントのペアとそれらが類似しているか異なるかを示すラベルとともに訓練
    • 類似したインスタンスが近くに集まり、非類似のインスタンスが遠ざけられる表現空間を学習することが目的
  • 自己教師付き対照学習(SSCL, Self-Supervised Contrastive Learning)

    • 明示的なラベルに頼らずにラベルのないデータから表現を学習するアプローチ
    • ラベルのないデータから肯定的および否定的なペアを作成するプリテキストタスクの設計を活用
    • モデルがデータ内の意味のある特徴と類似性を捉えるようにプリテキストタスクが慎重に設計
  • SSCLの応用例:

    • コンピュータビジョンでは、画像分類、物体検出、画像生成などのタスクで成功。
    • 自然言語処理では、文の表現学習、テキスト分類、機械翻訳などのタスクに適用
  • SimCLR

A Simple Framework for Contrastive Learning of Visual Representations

google-research/simclr: SimCLRv2 - Big Self-Supervised Models are Strong Semi-Supervised Learners

Advancing Self-Supervised and Semi-Supervised Learning with SimCLR – Google Research Blog

summary

https://1.bp.blogspot.com/--vH4PKpE9Yo/Xo4a2BYervI/AAAAAAAAFpM/vaFDwPXOyAokAC8Xh852DzOgEs22NhbXwCLcBGAsYHQ/s1600/image4.gif

  1. SimCLRの紹介: Google Researchのチーム、Ting ChenとGeoffrey Hintonを含む、画像分類における自己教師あり学習と半教師あり学習のための新しいフレームワークであるSimCLRを紹介します。

  2. 自己教師あり学習の背景: BERTやT5などの自然言語処理の最近の進歩は、大規模なラベルなしデータセットでの事前学習とその後の小規模ラベル付きデータセットでの微調整の効果を示しています。このアプローチは現在、コンピュータビジョン分野で探求されています。

  3. 現在の技術の課題: 画像データに対する既存の自己教師あり学習方法は複雑であり、アーキテクチャや訓練手順の大幅な変更が必要なため、広く採用されていません。

  4. SimCLRフレームワーク: SimCLRは、画像の自己教師あり表現学習の既存の方法を簡素化し、改善します。これには、ラベルなし画像での学習を通じて一般的な表現を学び、それを少量のラベル付きデータセットで特定のタスクのために微調整することが含まれます。

  5. 対照的学習方法: SimCLRは、同じ画像の異なる変換間の合意を最大化し、異なる画像間の合意を最小化するためにニューラルネットワークを訓練する対照的学習を使用します。

  6. 画像変換と表現: フレームワークは、切り取り、色の歪み、ガウスぼかしなどの単純な変形を使用して画像を変換します。これらの表現は、ResNetベースの畳み込みニューラルネットワークと全結合ネットワークを使用して計算されます。

  7. 訓練と微調整: ネットワークは、対照的目的の損失を最小限に抑えるために確率的勾配降下を使用して訓練されます。ラベルなし画像での事前トレーニングの後、モデルは特定のタスクでの性能を向上させるためにラベル付き画像で微調整することができます。

  8. 成果: SimCLRは画像分類において新記録を達成し、ImageNetデータセットのラベル付き画像のわずか1%を使用して85.8%のトップ5精度を達成しました。

パフォーマンス

https://1.bp.blogspot.com/-LpvCxgNepEI/Xo4axqZpoNI/AAAAAAAAFpE/NKjDKOQSnVEdq-gHUCDtl88LaUczNX_pACLcBGAsYHQ/s1600/image2.png

1. SimCLRによる性能向上:

  • ImageNetにおいて、SimCLRは自己教師あり学習と半教師あり学習を大幅に向上させる。例えば、SimCLRの表現を使用した線形分類器は76.5%のトップ1精度と93.2%のトップ5精度を達成し、以前の最高(CPC v2)を上回る。
  • ラベルの1%のみでファインチューニングすると、SimCLRは63.0%のトップ1精度と85.8%のトップ5精度を達成する。
  • 完全なラベルでのファインチューニングでは、SimCLRは教師ありベースラインを上回り、30エポックで80.1%のトップ1精度を達成する。

2. 対照的学習における主要な発見:

  • 発見1: 画像変換の組み合わせ(ランダムクロッピングとカラー歪み)が重要である。

https://1.bp.blogspot.com/-bO6c2IGpXDY/Xo4cR6ebFUI/AAAAAAAAFpo/CPVNlMP08hUfNPHQb2tKeHju4Y_UsNzegCLcBGAsYHQ/s640/image3.png

  • 発見2: SimCLRにおける非線形射影の使用は、表現品質を向上させるために不可欠である。
  • 発見3: スケーリングアップ(より多くの例の処理、大きなネットワークの使用、長期トレーニング)が性能を大幅に向上させる。