Gemma 4 ガイド

Ollama で Kimi K2.6 を使う方法: クラウドモデル、セットアップ、制限事項

約 7 分
kimi k2.6ollamaollama cloudlocal llmcoding agent
Ollama で Kimi K2.6 を使う方法: クラウドモデル、セットアップ、制限事項

Ollama で Kimi K2.6 を使う方法: クラウドモデル、セットアップ、制限事項

「Kimi K2.6 Ollama」と検索して、ollama pull でローカルに重みを落とせると思っていたなら、最初に一つだけ押さえておくべき点があります。Ollama にある Kimi K2.6 の公式エントリは ローカルモデルではなくクラウドモデル です。この違いが、セットアップ方法、課金、そしてそもそも自分の用途に合うかどうかを大きく左右します。

このガイドでは、kimi-k2.6:cloud が実際に何なのか、CLI や Python / JavaScript からどう使うのか、どの coding agent とつながるのか、そしてどんな場合に Moonshot 公式 API を使った方がよいのかを整理します。

ターミナル、クラウドルーティング、コーディングエージェント連携が Ollama 上でつながる Kimi K2.6 のイラスト

先に結論

  • Ollama ライブラリにある Kimi K2.6 のエントリは現在 1つだけ で、kimi-k2.6:cloud です。
  • 起動コマンドは ollama run kimi-k2.6:cloud です。
  • 実行場所は Ollama のクラウドであり、ローカル GPU ではありません。重みは手元にダウンロードされません。
  • コンテキスト長は 256K。入力は テキストと画像。ページ上のタグには visiontoolsthinkingcloud が含まれます。
  • ollama launch 経由で Claude Code、Codex、OpenCode、OpenClaw と連携できます。

公式 Ollama ページが実際に提供しているもの

Ollama ライブラリ上の Kimi K2.6 ページには、現時点で kimi-k2.6:cloud という 1 つのモデルだけがあり、vision tools thinking cloud のタグが付いています。コンテキスト長は 256K、入力はテキストと画像です。

また、主要なコーディングエージェント向けに次のワンライナーが案内されています。

ollama launch claude    --model kimi-k2.6:cloud
ollama launch codex     --model kimi-k2.6:cloud
ollama launch opencode  --model kimi-k2.6:cloud
ollama launch openclaw  --model kimi-k2.6:cloud

現時点で、Ollama が K2.6 に対して公式に見せている表面はこれがすべてです。ローカル量子化タグや kimi-k2.6:32b のような別エントリ、公式ライブラリ内の GGUF 版はありません。自前ホスティング用の重みが必要なら、moonshotai/Kimi-K2.6 の Hugging Face 側に行く必要があります。

Ollama で Kimi K2.6 を実行する方法

まず Ollama がインストールされていて、クラウドモデルが使えるようにログイン済みであることを確認してください。その上で、好みのインターフェースを選びます。

CLI

ollama run kimi-k2.6:cloud

これで対話型チャットが開きます。プロンプトを入力して Enter を押すと、リクエストは Ollama のクラウドへ送られます。ローカルマシンはほぼクライアントとして振る舞うだけです。

curl(OpenAI 風チャット API)

curl http://localhost:11434/api/chat \
  -d '{
    "model": "kimi-k2.6:cloud",
    "messages": [
      {"role": "user", "content": "Write a Rust function that reads CSV and returns column sums."}
    ]
  }'

Python

from ollama import chat

response = chat(
    model="kimi-k2.6:cloud",
    messages=[{"role": "user", "content": "Hello!"}],
)
print(response.message.content)

JavaScript

import ollama from 'ollama'

const response = await ollama.chat({
  model: 'kimi-k2.6:cloud',
  messages: [{ role: 'user', content: 'Hello!' }],
})
console.log(response.message.content)

どの方法でも最終的には同じクラウドバックエンドに届きます。ローカルの 11434 ポートは、あなたのマシン上で待ち受けてリクエストを転送する Ollama クライアントです。

kimi-k2.6:cloud が本当に意味するもの

ここが一番誤解されやすい部分です。Ollama で Kimi K2.6 を使うことは、1 兆パラメータ級モデルを自分の GPU で動かしているのと同じではありません。

ollama run llama3.3:70b なら、重みはローカルディスクに保存され、推論も自分のハードウェア上で動きます。ollama run kimi-k2.6:cloud はそうではありません。Kimi K2.6 は、総パラメータ約 1T、トークンごとに約 32B が活性化する Mixture-of-Experts モデルで、フル精度の重みだけでも 1TB を大きく超えます。現実的には複数 GPU サーバが前提です。Ollama の :cloud タグは、同じ CLI、同じ SDK、同じ agent 連携を維持したまま、実際の推論をマネージドなクラウド側に任せるための仕組みです。

この設計は合理的です。K2.6 をローカルでフル精度実行できる人はほとんどいません。ただし、次の3点は計画上かなり重要です。

  1. すべてのリクエストにインターネット接続が必要です。
  2. 利用料金は Ollama Cloud 側の課金であり、自前ハードウェア上での無料推論ではありません。
  3. Ollama Cloud 側が不調なら、ローカルマシンがどれだけ強力でも ollama run kimi-k2.6:cloud は止まります。

もし本当に「K2.6 を自分の GPU で動かしたい」なら、必要なのは Ollama ではなく、Hugging Face の重みと vLLM / SGLang / KTransformers のような推論エンジンです。

何に向いているか

いま kimi-k2.6:cloud が注目されている理由ははっきりしています。coding agent ユーザーが Claude や GPT 以外のバックエンドを探しており、Moonshot は K2.6 を agentic coding 向けモデルとして強く打ち出しているからです。ローンチ資料では、Rust / Go / Python での長時間コーディング、300 サブエージェントの swarm、人気 CLI ツールとの統合が前面に出ています。

Ollama 経由で K2.6 をつなげられる代表例:

  • Claude Code — Claude の代わりに K2.6 をバックエンドにする
  • Codex — 複数ステップのコード作業を K2.6 に回す
  • OpenCode — オープンソースの terminal-first coding agent
  • OpenClaw — 長時間実行向けの persistent agent runtime

書き方はすべて同じで、ollama launch <agent> --model kimi-k2.6:cloud です。256K コンテキスト、ネイティブな画像入力、Thinking モードを、特別な glue code なしで使えます。

制限事項

kimi-k2.6:cloud を公式 Moonshot API や Hugging Face 自前運用と比べたときには、現実的なトレードオフがあります。

オフライン不可。 クラウド前提なので、エアギャップ環境やネット接続のない環境には向きません。

制御性が弱い。 どの推論エンジンが使われているか、どの量子化か、どの system prompt template かを自分で細かく選べません。

課金モデルが異なる。 料金は Moonshot の token 単価ではなく、Ollama Cloud の料金体系に従います。すでに Moonshot API にコミット済みなら、Ollama 経由は二重管理になりやすいです。

機能の追随に時差がある。 たとえば動画入力は Moonshot が「現状では公式 API でのみ完全対応」と案内しており、サードパーティ経由では利用可否を自分で検証する必要があります。画像入力は期待できますが、動画はテスト前提です。

依存先が一段増える。 Moonshot の仕様更新や挙動変更があっても、Ollama 側のクラウド実装が追随するまでは差が出る可能性があります。

Ollama と公式 Kimi API、どちらを使うべきか

本音で言うと、何を優先するかで変わります。

欲しいもの 選ぶべきもの
Claude Code / OpenCode / OpenClaw でモデルを差し替えたい Ollama Cloud
OpenAI SDK 互換、Moonshot の公式課金とドキュメントが欲しい Kimi API
推論エンジンや量子化を完全に制御したい Hugging Face + vLLM / SGLang / KTransformers
オフライン / エアギャップ運用が必要 Hugging Face から自前ホスト
とにかく最速で試したい Ollama Cloud

すでに Ollama エコシステムにいて、「5 分後には K2.6 を coding task に試したい」なら ollama run kimi-k2.6:cloud が最短です。プロダクション運用、予算設計、動画入力を含むフル機能利用まで考えるなら、Moonshot 公式 API の方が素直で、自前ホスティングは最もコントロールしやすい選択肢です。

最終的なおすすめ

ほとんどの開発者にとって、考え方は次の3パターンで十分です。

  • 既存の coding agent で個人が試したい: ollama run kimi-k2.6:cloud から始める。
  • Moonshot モデルを使った製品を作るチーム: 公式 Kimi API を直接使う。
  • GPU を持つインフラ重視チーム: moonshotai/Kimi-K2.6 を Hugging Face から取得し、vLLM や SGLang で自前運用する。

Ollama の kimi-k2.6:cloud は、K2.6 を素早く触るには非常に良い入口です。ただし、それはローカル実行ではなく「ルーティングを楽にするクラウド経由の入口」だと理解した上で使うのが大事です。

FAQ

Ollama は Kimi K2.6 をサポートしていますか?
はい。公式 Ollama ライブラリに kimi-k2.6:cloud というエントリがあります。visiontoolsthinkingcloud などのタグが付いています。

Ollama の Kimi K2.6 はローカルですか、それともクラウドですか?
クラウドです。重みは手元にダウンロードされません。Ollama の CLI や SDK はリクエストをクラウドバックエンドへ転送します。

kimi-k2.6:cloud とは何ですか?
現在 Ollama が公開している Kimi K2.6 の唯一のモデルタグです。:cloud は、推論がローカルハードウェアではなくマネージド基盤上で行われることを示します。

Claude Code から Ollama 経由で Kimi K2.6 を使えますか?
はい。ollama launch claude --model kimi-k2.6:cloud で Claude Code を Kimi K2.6 で起動できます。Codex、OpenCode、OpenClaw でも同じパターンです。

Ollama 上の Kimi K2.6 は画像入力に対応していますか?
はい。Ollama のモデルカードではテキストと画像が対応入力として記載されています。動画入力は Moonshot により experimental とされ、現時点では公式 Moonshot API でのサポートが中心です。

Kimi K2.6 を Ollama で完全オフライン実行できますか?
できません。kimi-k2.6:cloud は Ollama Cloud への接続が必要です。オフラインが必要なら、Hugging Face の moonshotai/Kimi-K2.6 を取得して、vLLM、SGLang、KTransformers などで自前運用してください。

関連記事

Gemma 4 の記事群をそのまま辿り、今の判断にいちばん近い次の記事へ進んでください。

次に何を読めばいいか迷っていますか?

ガイド一覧に戻って、モデル比較、ローカル導入、ハードウェア計画の3方向から続けて見ていけます。