今回紹介する論文はSeq vs Seq: An Open Suite of Paired Encoders and Decodersという論文です。
https://arxiv.org/pdf/2507.11412v1.pdf
この論文を一言でまとめると
本記事では、Seq vs Seq: An Open Suite of Paired Encoders and Decodersという論文について解説します。ETTINスイートを用いたエンコーダ・デコーダモデルの比較実験の結果から、両モデルの特性と使い分けについて考察します。大規模言語モデル開発の新たな視点を提供します。
次項では、これらの課題に立ち向かい、encoder-onlyモデルとdecoder-onlyモデルの性能を公平に比較することを目的とした論文「Seq vs Seq: An Open Suite of Paired Encoders and Decoders」について解説します。
論文「Seq vs Seq: An Open Suite of Paired Encoders and Decoders」の概要と貢献
このセクションでは、論文「Seq vs Seq: An Open Suite of Paired Encoders and Decoders」の概要と、その貢献について詳しく解説します。本論文は、自然言語処理(NLP)分野における重要なテーマであるエンコーダモデルとデコーダモデルの比較に、新たな視点と厳密な実験的根拠を提供するものです。特に、ETTINスイートという独自のモデル群を構築し、詳細な分析を行った点が画期的です。
ETTINスイートの学習には、decoder-onlyモデルの学習によく用いられるOLMoのデータセットと、Dolma v1.7のキュレーションされたソースを組み合わせました。具体的には、DCLM(Li et al., 2024)とDolma v1.7(Soldaini et al., 2024)を組み合わせることで、多様なテキストデータを効率的に学習できると考えました。
また、OLMo 2の論文(OLMo et al., 2025)で記述されている、フィルタリングされたDCLMと高品質のソースをdecay phaseで使用するアプローチを採用しました。これにより、学習の後半段階でより高品質なデータに集中することで、モデルの性能向上を目指しました。
ETTINスイートでは、ModernBERTのアーキテクチャを参考に、様々なサイズのモデルを構築しました。ModernBERTには2つのサイズしかないため、より小さいモデルと大きいモデルのために新しい形状を開発する必要がありました。そこで、MobileLLM(Liu et al., 2024)のデザインに従い、深くて薄いモデルを目指しました。これは、パラメータ効率の高いモデルを構築するための一般的なアプローチです。
本セクションでは、論文「Seq vs Seq: An Open Suite of Paired Encoders and Decoders」の実験結果から得られた重要な洞察を解説します。ETTINスイートを用いた詳細な分析を通じて、エンコーダとデコーダの性能比較、クロス目的学習の効果、ジェンダーバイアスに関するケーススタディについて考察し、今後の研究の方向性を示唆します。
例えば、デコーダモデルをMLM(masked language modeling)で継続的に学習させ、classificationタスクに転用した場合、元のエンコーダモデルの性能を上回ることはできませんでした。この結果は、単に学習目的を反転させるだけでは、モデルのアーキテクチャに起因する性能差を埋められないことを示唆しています。
補足情報:MLMは、文中のいくつかの単語をマスクし、それを予測するタスクです。
ジェンダーバイアスに関するケーススタディ:表現の偏り
ETTINスイートのオープンな事前学習データを利用して、学習目的がジェンダー表現に与える影響を分析しました。WinoGenderベンチマーク(Rudinger et al., 2018)の
まとめと今後の展望:Seq2Seqモデルの可能性を拓く
本研究では、ETTINスイートを用いてエンコーダモデルとデコーダモデルの性能を詳細に比較しました。その結果、MLM(Masked Language Modeling)とCLM(Causal Language Modeling)という学習目的がそれぞれ異なる強みを持ち、MLMは分類や検索タスク、CLMは生成タスクに適していることが改めて確認されました。また、単に逆の目的で事前学習を継続するだけでは、アーキテクチャの違いによる性能差を埋められないことも示されました。
コメント