Kimiが全新SOTAモデルを発表:k1.5マルチモーダル思考モデルが登場

この記事は約4分で読めます。

近日、北京月之暗面科技有限公司は、その傘下のスマートアシスタントKimiが重大な技術アップグレードを行い、全新的なk1.5マルチモーダル思考モデルを発表しました。このモデルはマルチモーダル推論と汎用推論能力において業界をリードするレベルに達し、Kimiが人工知能分野で達成したもう一つの突破的な進歩を示しています。

k1.5マルチモーダル思考モデルのブレイクスル

k1.5マルチモーダル思考モデルは、Kimiがkシリーズ強化学習モデルを3か月以内に3度目の大幅アップグレードを行ったものです。昨年11月に発表されたk0-math数学モデルと12月に発表されたk1ビジュアル思考モデルに続き、k1.5モデルはベンチマークテストで卓越したパフォーマンスを発揮しました。Short-CoTモードでは、k1.5の数学、コード、ビジュアルマルチモーダル、および汎用能力は、世界中の短思考SOTAモデルであるGPT-4oとClaude3.5Sonnetのレベルを大幅に上回り、リードは550%に達しました。Long-CoTモードでは、k1.5の数学、コード、マルチモーダル推論能力は、長思考SOTAモデルであるOpenAI o1正式版のレベルに達しました。これは、OpenAI以外の企業がo1正式版のマルチモーダル推論性能を実現した世界的な初めての事例です。

技術革新とトレーニング方法

今回のアップグレードの背景には、Kimi技術チームの継続的な努力と革新があります。チームは初めて、詳細なモデルトレーニング技術報告書『Kimi k1.5:大言語モデルを用いた強化学習のScaling』を公開し、新しい技術パラダイムにおけるモデルトレーニングの探求を記録しました。

報告によると、k1.5モデルの主要な革新には、長コンテキストの拡張が含まれます。部分展開技術を用いてトレーニング効率を高め、コンテキスト長の増加がモデル性能の継続的な向上をもたらすことが観察されました。さらに、改善された戦略最適化手法と簡潔なフレームワーク設計が、モデルの強力な性能を支えることもできました。特に注目に値するのは、k1.5モデルはテキストとビジュアルデータの両方にわたって共同トレーニングが行われ、2つのモーダルを共同推論する能力を備えています。数学能力において特に優れたパフォーマンスを発揮しましたが、一部の図形理解能力に依存する幾何問題ではまだ課題が残されています。

短思考チェーンの推論能力をさらに向上させるために、チームはLong-CoT技術を用いてShort-CoTモデルを改善する効果的なlong2short手法を提案しました。AIME、MATH500、LiveCodeBenchなどのテストで顕著な成果を上げ、既存の短思考チェーンモデル(GPT-4、Claude Sonnet3.5など)を大幅に上回る結果を出しました。

ユーザー体験と未来の展望

k1.5マルチモーダル思考モデルのプレビュー版は、順次Kimi.comウェブサイトと最新版のKimiスマートアシスタントアプリにグレーゾーンでリリースされます。ユーザーがモデル切り替えボタンを見つけると、この新しくアップグレードされたモデルを体験することができます。k1.5モデルは深い推論に長けており、ユーザーが複雑なコード問題、数学問題、仕事の問題を解決するのに役立ちます。

月之暗面科技有限公司は、2025年にkシリーズ強化学習モデルのアップグレードを加速し、より多くのモーダル、より多くの分野の能力、そしてより強力な汎用能力をもたらし、ユーザーにさらに多くの可能性を開くと表明しました。

aiスピーキング

ドルフィンAIは言語学習アプリケーションのためのプロフェッショナルな発音評価API(pronunciation assessment api)ソリューションを提供します。音素、単語、文章、チャプター、発音矯正、単語矯正、クイズ、フリーダイアログ、多肢選択問題など幅広く提供しています。当社の発音評価製品(pronunciation assessment)は、英語と中国語、クラウドAPI、オンプレミス、オフラインデバイスの展開をサポートしています。当社の発音評価API(pronunciation assessment api)は、正確性、流暢性、完全性、リズムの次元をカバーする豊富な評価指標を提供し、音素、単語、文の異なるレベルの評価スコアも提供します。また、音素、単語、文の異なるレベルでの評価スコアも提供します。数千万人のユーザーに安定した効率的で安全なサービスを提供しています。ドルフィンAIの発音評価製品(pronunciation assessment)を試してみませんか?

タイトルとURLをコピーしました