MITのカイミング・ヘーのチームが、45Bの学習トークンでELF言語拡散モデルをリリース

Beating によると、MITのKaiming Heのチームが最近 ELF(Embedded Language Flows)をリリースしました。これは、GPT 系モデルが用いる自己回帰的な「次のトークンを予測する」アプローチから逸脱した言語拡散モデルです。代わりに、ELF は最終ステップでのみ離散トークンへ変換し、連続的な埋め込み空間でテキスト生成を行います。

OpenWebText の無条件生成ベンチマークでは、105M パラメータの ELF-B が、32 ステップのサンプリングで約 24.1 の生成ペルプレキシティ(Gen. PPL)を達成し、複数の離散および連続の拡散言語モデルのベースラインを上回りました。特に、ELF-B は約 450億の学習トークンしか必要とせず、通常 5,000億トークンを超える同等の手法よりも、およそ 1 桁少ない規模でした。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし