技術 Erlangshen-BERT-120M-IE-Chinese 紹介 Brief Introduction このモデルは大規模な情報抽出データに基づいて事前トレーニングされ、few-shot、zero-shotの状況下でのエンティティ識別、関係三元組抽出タスクをサポートできます。 このモデルは大規模な情... 2024-11-20 技術
技術 StructBERTを基盤とした司法プリトレーニングモデル紹介 このモデルはStructBERTプリトレーニングモデルをベースに、400GBの司法語料を使用してプリトレーニングされています。トレーニング語料には、判決文書、法律法規、裁判記録、法律Q&A、法律百科など、司法分野のテキストが含まれています。... 2024-11-20 技術
技術 StructBERTを基盤とした中国語Tinyサイズのプリトレーニングモデル紹介 StructBERTの中国語Largeサイズのプリトレーニングモデルは、wikipediaデータとmasked language modelタスクを使用してトレーニングされた中国語自然言語理解プリトレーニングモデルです。 モデル説明 私たち... 2024-11-20 技術
技術 RoBERTaを基盤とした中国語Baseサイズのプリトレーニングモデル紹介 RoBERTaの中国語Baseサイズのプリトレーニングモデルは、広範な中国語データとmasked language modelタスクを使用してトレーニングされた中国語自然言語理解プリトレーニングモデルです。 モデル説明 BERTの基礎をもと... 2024-11-20 技術
技術 BERTを基盤とした中国語Baseサイズのプリトレーニングモデル紹介 BERTの中国語Baseサイズのプリトレーニングモデルは、wikipediaデータとmasked language modelタスクを使用してトレーニングされた中国語自然言語理解プリトレーニングモデルです。 モデル説明 BERTはTrans... 2024-11-20 技術
技術 StructBERTを基盤とした中国語Baseサイズのプリトレーニングモデル紹介 StructBERTの中国語Largeサイズのプリトレーニングモデルは、wikipediaデータとmasked language modelタスクを使用してトレーニングされた中国語自然言語理解プリトレーニングモデルです。 モデル説明 私たち... 2024-11-20 技術
技術 VLDocドキュメント理解マルチモーダルプリトレーニングモデル紹介 ドキュメント理解とは、視覚的に豊富なドキュメントを自動的に分析し、処理する行為で、ドキュメント情報抽出、ドキュメントレイアウト分析、ドキュメント分類、ドキュメントVQAなどが含まれます。 VLDocはドキュメント理解のためのマルチモーダルプ... 2024-11-20 技術
技術 Qwen2.5-0.5B-Instruct はじめに Qwen2.5は、Qwenシリーズの大規模言語モデルの最新シリーズです。Qwen2.5では、0.5から72億パラメーターの範囲の基本言語モデルと指令調整型言語モデルを複数リリースしています。Qwen2.5はQwen2よりも以下の点... 2024-11-05 技術
技術 CosyVoice音声生成大モデル-300M インストール レポジトリをクローンしてインストールします。 レポジトリをクローンします。 git clone --recursive # ネットワーク障害によりサブモジュールのクローンに失敗した場合は、次のコマンドを実行して成功するまで繰り... 2024-11-05 技術
技術 glm-4-9b-chat モデル紹介 GLM-4-9Bは、智谱 AIが発表した最新世代のプリトレインモデルシリーズGLM-4のオープンソースバージョンです。意味解釈、数学、推論、コード、知識など多岐にわたるデータセット評価において、GLM-4-9Bとその人間好みアラ... 2024-11-05 技術