技術 IDEA-CCNL/Erlangshen-TCBert-110M-Sentence-Embedding-Chinese 紹介 Brief Introduction110Mパラメータの文章表現Topic Classification BERT (TCBert)。110Mパラメータを持つTCBertは、中国語の話題分類タスクのための文章表現に事前トレーニングされ... 2024-11-20 技術
技術 一般的な大規模言語モデルの共有と比較 1 プロジェクト概要魔搭プラットフォームにログインし、アリyunアカウントを関連付けて無料のCPUクラウド計算資源を獲得します。Jupyter Notebookを通じて相应のプロジェクトデプロイ環境に入り、モデルのデプロイを完了させます。2... 2024-11-20 技術
技術 PoNet完形填空モデル-中国語-base紹介 このモデルはPoNetモデル構造を使用し、マスク付き言語モデル(Masked Language Modeling、MLM)と文章構造目的(Sentence Structural Objective、SSO)の事前トレーニングタスクを通じて中... 2024-11-20 技術
技術 Erlangshen-BERT-120M-IE-Chinese 紹介 Brief Introductionこのモデルは大規模な情報抽出データに基づいて事前トレーニングされ、few-shot、zero-shotの状況下でのエンティティ識別、関係三元組抽出タスクをサポートできます。このモデルは大規模な情報抽... 2024-11-20 技術
技術 StructBERTを基盤とした司法プリトレーニングモデル紹介 このモデルはStructBERTプリトレーニングモデルをベースに、400GBの司法語料を使用してプリトレーニングされています。トレーニング語料には、判決文書、法律法規、裁判記録、法律Q&A、法律百科など、司法分野のテキストが含まれています。... 2024-11-20 技術
技術 StructBERTを基盤とした中国語Tinyサイズのプリトレーニングモデル紹介 StructBERTの中国語Largeサイズのプリトレーニングモデルは、wikipediaデータとmasked language modelタスクを使用してトレーニングされた中国語自然言語理解プリトレーニングモデルです。モデル説明私たちは言... 2024-11-20 技術
技術 RoBERTaを基盤とした中国語Baseサイズのプリトレーニングモデル紹介 RoBERTaの中国語Baseサイズのプリトレーニングモデルは、広範な中国語データとmasked language modelタスクを使用してトレーニングされた中国語自然言語理解プリトレーニングモデルです。モデル説明BERTの基礎をもとに、... 2024-11-20 技術
技術 BERTを基盤とした中国語Baseサイズのプリトレーニングモデル紹介 BERTの中国語Baseサイズのプリトレーニングモデルは、wikipediaデータとmasked language modelタスクを使用してトレーニングされた中国語自然言語理解プリトレーニングモデルです。モデル説明BERTはTransfo... 2024-11-20 技術
技術 StructBERTを基盤とした中国語Baseサイズのプリトレーニングモデル紹介 StructBERTの中国語Largeサイズのプリトレーニングモデルは、wikipediaデータとmasked language modelタスクを使用してトレーニングされた中国語自然言語理解プリトレーニングモデルです。モデル説明私たちは言... 2024-11-20 技術
技術 VLDocドキュメント理解マルチモーダルプリトレーニングモデル紹介 ドキュメント理解とは、視覚的に豊富なドキュメントを自動的に分析し、処理する行為で、ドキュメント情報抽出、ドキュメントレイアウト分析、ドキュメント分類、ドキュメントVQAなどが含まれます。VLDocはドキュメント理解のためのマルチモーダルプリ... 2024-11-20 技術