紹介 Brief Introduction このモデルは大規模な情報抽出データに基づいて事前トレーニングされ、few-shot、zero-shotの状況下でのエンティティ識別、関係三元組抽出タスクをサポートできます。
このモデルは大規模な情報抽出データに基づいて事前トレーニングされ、few-shot/zero-shotシナリオでの名前付きエンティティ識別(NER)と関係抽出(RE)タスクをよりよくサポートします。
モデル分類 Model Taxonomy
需要 Demand | タスク Task | シリーズ Series | モデル Model | パラメータ Parameter | 追加 Extra |
---|---|---|---|---|---|
一般 General | 情報抽出 Information Extraction | 二郎神 Erlangshen | BagualuIEModel | 120M | 中国語 Chinese |
Erlangshen-BERT-120M-IE-Chineseは、複数の情報抽出タスクでテストされています。
その中では、zh_weibo/MSRA/OntoNote4/ResumeはNERタスクで、MSRAは元のデータに基づいてテストされています。SanWen/FinREはエンティティ関係の共同抽出タスクとしてテストされ、単一の関係分類タスクではありません。
一部のパラメータ設定は次の通りです:
batch_size=16 precision=16 max_epoch=50 lr=2e-5 weight_decay=0.1 warmup=0.06 max_length=512
私たちはランダムシード123/456/789のもとでテストを行い、MacBERT-base、中国語を事前トレーニングモデルとして同じパラメータでトレーニングして比較用的baselineとして使用し、次の結果を計算しました。
データセット Dataset | トレーニングエポック Training epochs | テスト精度 Test precision | テスト再現率 Test recall | テストF1 Test f1 | ベースラインF1 Baseline f1 |
---|---|---|---|---|---|
zh_weibo | 10.3 | 0.7282 | 0.6447 | 0.6839 | 0.6778 |
MSRA | 5 | 0.9374 | 0.9299 | 0.9336 | 0.8483 |
OntoNote4 | 9 | 0.8640 | 0.8634 | 0.8636 | 0.7996 |
Resume | 15 | 0.9568 | 0.9658 | 0.9613 | 0.9479 |
SanWen | 6.7 | 0.3655 | 0.2072 | 0.2639 | 0.2655 |
FinRE | 7 | 0.5190 | 0.4274 | 0.4685 | 0.4559 |
使用方法 Usage GTSエンジン(GTS-エンジン)は、即座に使用可能で高性能な自然言語理解エンジンで、わずかなサンプルで自動的にNLPモデルを生成できます。GTSエンジンには乾坤鼎と八卦炉の2つのトレーニングエンジンが含まれています。
このモデルは、GTS-エンジンの八卦炉エンジンで情報抽出タスクとして、事前トレーニングモデルとしてfine-tuneが可能です。
GTS-エンジンドキュメント参照:GTS-エンジン
サンプルコード Example Code
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
pipeline_ins = pipeline(
'fill-mask',
model='Fengshenbang/Erlangshen-BERT-120M-IE-Chinese',
model_revision='v1.0.0'
)
print(pipeline_ins('西湖の景色'))
引用 Citation 私たちのモデルをあなたの仕事で使用した場合は、私たちのウェブサイトを引用することができます:
引用元は次のように示されます:
@misc{GTS-Engine, title={GTS-エンジン}, author={IDEA-CCNL}, year={2022}, howpublished={\url{https://github.com/IDEA-CCNL/GTS-Engine}}, }
現在、ネットワークの問題により、上記のウェブページの解析が成功しませんでした。必要であれば、ウェブページリンクの合法性を確認し、適宜再試行してください。リンクの解析が不要であれば、ユーザーの質問に通常対応します。 ドルフィンAIは言語学習アプリケーションのためのプロフェッショナルな発音評価API(pronunciation assessment api)ソリューションを提供します。音素、単語、文章、チャプター、発音矯正、単語矯正、クイズ、フリーダイアログ、多肢選択問題など幅広く提供しています。当社の発音評価製品(pronunciation assessment)は、英語と中国語、クラウドAPI、オンプレミス、オフラインデバイスの展開をサポートしています。当社の発音評価API(pronunciation assessment api)は、正確性、流暢性、完全性、リズムの次元をカバーする豊富な評価指標を提供し、音素、単語、文の異なるレベルの評価スコアも提供します。また、音素、単語、文の異なるレベルでの評価スコアも提供します。数千万人のユーザーに安定した効率的で安全なサービスを提供しています。ドルフィンAIの発音評価製品(pronunciation assessment)を試してみませんか?