人工知能の大型モデル

豆神教育、AIと教育の融合で新時代を開く「超人AI教師」登場

要約 豆神教育は2024年10月30日、北京で「豆神辞源大模型」の製品発表会を開催し、自主開発のAI教育製品「豆神AI」を公開しました。AIと教育の融合が生み出す新しい教育モードについて探求します。 本文 AI技术和教育の融合は、教育界に新...
人工知能の大型モデル

AI企業MiniMax、海外で逆襲か?中国での利益獲得は依然として課題

要約 AI企業MiniMaxは、話題のAI製品Talkieを通じて海外市場で成功を収めているが、中国での利益獲得は課題依然です。この記事では、MiniMaxの現状と中国AI業界の動向について探求します。 本文 中国のAI企業MiniMaxは...
技術

IDEA-CCNL/Erlangshen-TCBert-110M-Sentence-Embedding-Chinese

紹介 Brief Introduction 110Mパラメータの文章表現Topic Classification BERT (TCBert)。 110Mパラメータを持つTCBertは、中国語の話題分類タスクのための文章表現に事前トレーニング...
技術

一般的な大規模言語モデルの共有と比較

1 プロジェクト概要 魔搭プラットフォームにログインし、アリyunアカウントを関連付けて無料のCPUクラウド計算資源を獲得します。 Jupyter Notebookを通じて相应のプロジェクトデプロイ環境に入り、モデルのデプロイを完了させます...
技術

PoNet完形填空モデル-中国語-base紹介

このモデルはPoNetモデル構造を使用し、マスク付き言語モデル(Masked Language Modeling、MLM)と文章構造目的(Sentence Structural Objective、SSO)の事前トレーニングタスクを通じて中...
技術

Erlangshen-BERT-120M-IE-Chinese

紹介 Brief Introduction このモデルは大規模な情報抽出データに基づいて事前トレーニングされ、few-shot、zero-shotの状況下でのエンティティ識別、関係三元組抽出タスクをサポートできます。 このモデルは大規模な情...
技術

StructBERTを基盤とした司法プリトレーニングモデル紹介

このモデルはStructBERTプリトレーニングモデルをベースに、400GBの司法語料を使用してプリトレーニングされています。トレーニング語料には、判決文書、法律法規、裁判記録、法律Q&A、法律百科など、司法分野のテキストが含まれています。...
技術

StructBERTを基盤とした中国語Tinyサイズのプリトレーニングモデル紹介

StructBERTの中国語Largeサイズのプリトレーニングモデルは、wikipediaデータとmasked language modelタスクを使用してトレーニングされた中国語自然言語理解プリトレーニングモデルです。 モデル説明 私たち...
技術

RoBERTaを基盤とした中国語Baseサイズのプリトレーニングモデル紹介

RoBERTaの中国語Baseサイズのプリトレーニングモデルは、広範な中国語データとmasked language modelタスクを使用してトレーニングされた中国語自然言語理解プリトレーニングモデルです。 モデル説明 BERTの基礎をもと...
技術

BERTを基盤とした中国語Baseサイズのプリトレーニングモデル紹介

BERTの中国語Baseサイズのプリトレーニングモデルは、wikipediaデータとmasked language modelタスクを使用してトレーニングされた中国語自然言語理解プリトレーニングモデルです。 モデル説明 BERTはTrans...