RoBERTa事前学習モデル-中国語ベース

この記事は約6分で読めます。

RoBERTaの中国語Baseプリトレインモデルの紹介(ドキュメント更新中)

RoBERTaの中国語Baseプリトレインモデルは、広範な中国語データとマスキングされた言語モデルタスクを使用してトレーニングされた中国語自然言語理解のプリトレインモデルです。

モデルの説明

BERTの基礎をもとに、RoBERTaはBERTのトレーニングを最適化する一連の技術を提案しました。例えば、より多くの資料、より大きなバッチサイズ、NSPタスクの削除などがあります。これにより、効果が確実に向上し、BERTモデルの潜在能力を最大限に発揮します。詳細については、論文「RoBERTa: A Robustly Optimized BERT Pretraining Approach」を参照してください。

このモデルはBaseサイズ(Layer-12 / Hidden-768 / Head-12)で、パラメーターサイズは約102Mです。

モデルの使用方法と適応範囲

このモデルは主に中国語のダウンストリームタスクのファインチューニングに使用されます。ユーザーは独自のトレーニングデータを使用してファインチューニングできます。具体的な呼び出し方は、コードの例を参照してください。

使用方法 ModelScope-libをインストールした後、nlp_roberta_backbone_base_stdをベースにダウンストリームタスクのファインチューンが行えます。

コードの例

from modelscope.metainfo import Preprocessors
from modelscope.msdatasets import MsDataset
from modelscope.trainers import build_trainer
from modelscope.utils.constant import Tasks

# このメソッドを通じてcfgを変更します。
def cfg_modify_fn(cfg):
    # バックボーンモデルを文章の類似度モデルクラスにロードします。
    cfg.task = Tasks.sentence_similarity
    # 文章の類似度のプリプロセッサを使用します。
    cfg['preprocessor'] = {'type': Preprocessors.sen_sim_tokenizer}

    # 演示コードの変更、通常使用する際は変更しないでください。
    cfg.train.dataloader.workers_per_gpu = 0
    cfg.evaluation.dataloader.workers_per_gpu = 0

    # データセットの特徴を補足します。
    cfg['dataset'] = {
        'train': {
            # 実際のlabelフィールドの内容を列挙、バックボーンのトレーニング時に渡す必要があります。
            'labels': ['0', '1'],
            # 第1フィールドのkey
            'first_sequence': 'sentence1',
            # 第2フィールドのkey
            'second_sequence': 'sentence2',
            # labelのkey
            'label': 'label',
        }
    }
    # lr_schedulerの設定
    cfg.train.lr_scheduler.total_iters = int(len(dataset['train']) / 32) * cfg.train.max_epochs
    return cfg

# clueのafqmcを使用してトレーニングします。
dataset = MsDataset.load('clue', subset_name='afqmc')
kwargs = dict(
    model='damo/nlp_roberta_backbone_base_std',
    train_dataset=dataset['train'],
    eval_dataset=dataset['validation'],
    work_dir='/tmp',
    cfg_modify_fn=cfg_modify_fn)

# nlp-base-trainerを使用します。
trainer = build_trainer(name='nlp-base-trainer', default_args=kwargs)
trainer.train()

モデルの限界と可能性のあるバイアス 中国語データに基づいてトレーニングされ、モデルのトレーニングデータが限られているため、効果に一定のバイアスが存在する可能性があります。

トレーニングデータの紹介

データはhttps://huggingface.co/datasets/wikipediaおよび内部で収集された広範な中国語データから来ています。

モデルのトレーニングプロセス 中国語wikiなどの広範な中国語データで、MLMタスクを通じて十分にトレーニングされます。

データの評価と結果

なし

関連する論文および引用情報 私たちのモデルが役立つ場合は、記事を引用してください。

@article{liu2019roberta, title={Roberta: A robustly optimized bert pretraining approach}, author={Liu, Yinhan and Ott, Myle and Goyal, Naman and Du, Jingfei and Joshi, Mandar and Chen, Danqi and Levy, Omer and Lewis, Mike and Zettlemoyer, Luke and Stoyanov, Veselin}, journal={arXiv preprint arXiv:1907.11692}, year={2019} }

ドルフィンAIは言語学習アプリケーションのためのプロフェッショナルな発音評価API(pronunciation assessment api)ソリューションを提供します。音素、単語、文章、チャプター、発音矯正、単語矯正、クイズ、フリーダイアログ、多肢選択問題など幅広く提供しています。当社の発音評価製品(pronunciation assessment)は、英語と中国語、クラウドAPI、オンプレミス、オフラインデバイスの展開をサポートしています。当社の発音評価API(pronunciation assessment api)は、正確性、流暢性、完全性、リズムの次元をカバーする豊富な評価指標を提供し、音素、単語、文の異なるレベルの評価スコアも提供します。また、音素、単語、文の異なるレベルでの評価スコアも提供します。数千万人のユーザーに安定した効率的で安全なサービスを提供しています。ドルフィンAIの発音評価製品(pronunciation assessment)を試してみませんか?

タイトルとURLをコピーしました