PoNet完形填空モデル-中国語-base紹介

この記事は約6分で読めます。

このモデルはPoNetモデル構造を使用し、マスク付き言語モデル(Masked Language Modeling、MLM)と文章構造目的(Sentence Structural Objective、SSO)の事前トレーニングタスクを通じて中国語Wikipediaデータに基づいて事前トレーニングされています。完形填空タスクに使用されるだけでなく、下游の自然言語理解タスクでfine-tuneして使用する初期化モデルとしても使用できます。

モデル説明 PoNetは線形复杂度(O(N))を持つ計算モデルで、Transformerモデルの自己注意メカニズムをプーリングネットワークに置き換えて文章の単語を混合します。具体的には、ローカル、セグメント、グローバルの3つの粒度でプーリングネットワークを含み、文脈情報を捕捉します。その構造は下記の図のように示されています。

PoNet

実験結果によると、PoNetは長文テキストテストLong Range Arena(LRA)でTransformerよりも2.28ポイント精度が高く、GPUでの実行速度はTransformerの9倍で、GPUメモリ使用量は1/10です。また、実験ではPoNetの移転学習能力も示され、PoNet-BaseはGLUE基準でBERT-Baseの95.7%の精度に達しました。詳細は論文「PoNet: Pooling Network for Efficient Token Mixing in Long Sequences」を参照してください。

モデルの使用方法と適用範囲 このモデルは主に完形填空の結果を生成するために使用されます。ユーザーはさまざまな入力文書を試してみることができます。具体的な呼び出し方法是コード例を参照してください。

使用方法 ModelScope-libをインストール一旦完了したら、nlp_ponet_fill-mask_chinese-baseの機能を使用できます。

コード例

from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks

pipeline_ins = pipeline(Tasks.fill_mask, model='damo/nlp_ponet_fill-mask_chinese-base')
input = "人民文学出版社[MASK]1952[MASK],出版《[MASK][MASK]演义》、《[MASK]游记》、《水浒传》、《[MASK]楼梦》,合为“[MASK]大名著”。"
print(pipeline_ins(input))

モデルの限界と可能性のあるバイアス モデルのトレーニングデータは限定的であり、効果に一定のバイアスが存在する可能性があります。 現在のバージョンはpytorch 1.11とpytorch 1.12環境でテストされていますが、他の環境での動作はテスト待ちです。

トレーニングデータ紹介 データはhttps://dumps.wikimedia.org/ から得られています。

モデルトレーニングプロセス 中国語Wikipediaの非監督データに基づいて、MLMとSSOタスクでトレーニングされました。

前処理 トレーニングデータに対して以下の前処理が行われます。MLMタスクでは、マスク確率を15%に設定し、80%のマスク位置は[MASK]に置き換えられ、10%はランダムにサンプリングされた単語に置き換えられ、残りの10%は変更されません。SSOタスクでは、複数の段落を含むシーケンスがランダムな位置で2つの子シーケンスに截断され、そのうち1/3の確率で別のランダムに選択された子シーケンスに其中一个子序列(其中一个子序列)を置き換え、1/3の確率で二つの子シーケンスを交換、1/3の確率で変更されません。

トレーニング詳細 中国語WikipediaでAdamオプティマイザを使用し、初期学習率为1e-4、batch_sizeは384に設定されています。

データ評価及び結果 下游タスクでfine-tune後、CAIL、CLUEの開発セットの結果は次の通りです。

データセット Dataset CAIL AFQMC CMNLI CSL IFLYTEK OCNLI TNEWS WSC
精度 Accuracy 61.93 70.25 72.9 72.97 58.21 68.14 55.04 64.47

下游タスクMUGの話題分割(Topic Segmentation)および話題レベルおよびセッションレベルの抽出式要約(Extractive Summarization)の開発セットの結果は次の通りです:

タスク Task 正確さ Positive F1
話題分割 Topic Segmentation 0.251
タスク Task 平均R1 Ave. R1 平均R2 Ave. R2 平均RL Ave. RL 最大R1 Max R1 最大R2 Max R2 最大RL Max RL
セッションレベルES Session-Level ES 57.08 29.90 38.36 62.20 37.34 46.98
話題レベルES Topic-Level ES 52.86 35.80 46.09 66.67 54.05 63.14

詳細はhttps://github.com/alibaba-damo-academy/SpokenNLP で確認できます。

関連論文および引用情報 もし私たちのモデルが役に立ったら、私たちの論文を引用してください。

@inproceedings{DBLP:journals/corr/abs-2110-02442, author = {Chao{-}Hong Tan and Qian Chen and Wen Wang and Qinglin Zhang and Siqi Zheng and Zhen{-}Hua Ling}, title = {{PoNet}: Pooling Network for Efficient Token Mixing in Long Sequences}, booktitle = {10th International Conference on Learning Representations, {ICLR} 2022, Virtual Event, April 25-29, 2022}, publisher = {OpenReview.net}, year = {2022}, url = {https://openreview.net/forum?id=9jInD9JjicF}, }

ドルフィンAIは言語学習アプリケーションのためのプロフェッショナルな発音評価API(pronunciation assessment api)ソリューションを提供します。音素、単語、文章、チャプター、発音矯正、単語矯正、クイズ、フリーダイアログ、多肢選択問題など幅広く提供しています。当社の発音評価製品(pronunciation assessment)は、英語と中国語、クラウドAPI、オンプレミス、オフラインデバイスの展開をサポートしています。当社の発音評価API(pronunciation assessment api)は、正確性、流暢性、完全性、リズムの次元をカバーする豊富な評価指標を提供し、音素、単語、文の異なるレベルの評価スコアも提供します。また、音素、単語、文の異なるレベルでの評価スコアも提供します。数千万人のユーザーに安定した効率的で安全なサービスを提供しています。ドルフィンAIの発音評価製品(pronunciation assessment)を試してみませんか?

タイトルとURLをコピーしました