2026年1月、中国のAIユニコーン Moonshot AI がリリースした Kimi K2.5 は、これまでの大規模言語モデル(LLM)の常識を覆す「Visual Agentic Intelligence(視覚エージェント知能)」を提唱しています。
本記事では、その驚異的なスペックから、独自アルゴリズム「PARL」による革新的なマルチエージェント機能までを詳細に解説します。
1. Kimi K2.5 の基本スペックと立ち位置
Kimi K2.5は、単なるテキストモデルではなく、最初から「目(視覚)」と「手(ツール操作)」を持つネイティブマルチモーダルモデルとして設計されています。
主要スペック表
項目 詳細仕様
アーキテクチャ MoE (Mixture of Experts)
パラメータ数 総計 約1兆 (1T) / アクティブ 約320億
学習データ量 15兆トークン(テキスト・画像・動画の混合)
コンテキスト長 最大 256Kトークン (API)
視覚性能 4億パラメータの専用Vision Encoder搭載
ライセンス Modified MIT License (Hugging Faceで公開中)
ライターの視点: 2026年現在、Llama 4(Meta)やGPT-5(OpenAI)と並び、オープンソース界隈では「実務性能でトップ」との評価が定着しています。
