C
ChaoBro

GitHub Trending 1位:DeepSeek-TUI が1日で2,400スター獲得、ターミナル内のAIコーディングエージェントが激アツ

GitHub Trending 1位:DeepSeek-TUI が1日で2,400スター獲得、ターミナル内のAIコーディングエージェントが激アツ

今日のGitHub Trendingチャートをあるオープンソースプロジェクトが独占している——DeepSeek-TUI、1日で2,434スターを獲得、総スター数は11.3kを突破し、現在GitHub上で最も注目を集めるAIツールプロジェクトとなった。

何なのか?

DeepSeek-TUIはターミナル内で動作するAIコーディングエージェントで、Rustで構築され、DeepSeek V4シリーズモデル(deepseek-v4-pro / deepseek-v4-flash)に直接接続する。単なるコード補完ツールではなく、ファイルの読み書き、シェルコマンドの実行、ウェブ検索、Git管理、サブエージェントの調整までこなすフル機能のプログラミングアシスタントだ。

一言で言えば:Claude Code / CursorレベルのAIエージェントをターミナル内で動かせる。完全無料、オープンソース、バックエンドサービス不要。

主要機能

Autoモード:エージェントが自分でモデルを選ぶ

--model auto はDeepSeek-TUIの最も特徴的な機能だ。手動でモデルを選択するのではなく、エージェントがタスクの複雑さに基づいて適切なモデルと推論レベルに自動的にルーティングする:

  • 簡単な質問 → deepseek-v4-flash、推論オフ、高速レスポンス
  • コーディング、デバッグ、アーキテクチャ設計 → 自動的にdeepseek-v4-prohighまたはmax推論にアップグレード

ルーティング判断は軽量なdeepseek-v4-flash呼び出しで行われる。上流APIに送られるのは常に具体的なモデルIDで、"auto"という値が届くことはない。

ストリーミング推論ブロック:AIが考える様子をリアルタイムで見る

DeepSeek V4は推論モード(thinking mode)をサポートしており、DeepSeek-TUIはモデルの推論プロセスをターミナルにリアルタイムでストリーミング表示する。AIがコードを書く前にどのように段階的に考えているかを確認できる——最終結果だけを見るより遥かに価値がある。

3つの作業モード

モード動作
Plan 🔍読み取り専用調査 — モデルがコードベースを探索し、計画を提案。ファイルは変更しない
Agent 🤖インタラクティブモード、マルチステップツール使用、各操作に確認が必要
YOLOすべてのツール呼び出しを自動承認、信頼されたワークスペースに最適

フルツールチェーン

ファイル操作、シェル実行、Git管理、ウェブ検索、パッチ適用、サブエージェント調整、MCPプロトコル対応——DeepSeek-TUIのツールレジストリはほぼすべての開発シナリオをカバーしている。注目の機能:

  • MCPプロトコル: Model Context Protocolサーバーに接続してツールエコシステムを拡張
  • LSP診断: 編集後にrust-analyzer、pyright、typescript-language-serverなどが自動的に診断を注入し、AIの次の推論にリアルなコンパイラフィードバックを提供
  • Skillsシステム: 組み合わせ可能・インストール可能なスキルパック — GitHubコミュニティからワンクリックでインストール、バックエンド不要
  • セッション保存/再開: 長時間タスクをチェックポイントして再開可能 — ターミナルを閉じても安心
  • ワークスペースロールバック: side-gitベースの編集スナップショット、/restoreでリポジトリの.gitに触れずに巻き戻し

極めて低コスト

DeepSeek V4の価格は現在の市場を圧倒している:

  • deepseek-v4-flash: 入力 $0.14/1Mトークン(キャッシュヒット $0.0028)、出力 $0.28/1M
  • deepseek-v4-pro: 入力 $0.435/1Mトークン(キャッシュヒット $0.003625)、出力 $0.87/1M

Proモデルは現在75%の期間限定割引あり、2026年5月31日まで有効。DeepSeek-TUIにはリアルタイムコスト追尋機能が組み込まれており、1回ごとのトークン使用量とコストが一目でわかる。

マルチモデル対応

DeepSeek公式APIに限定されない:

  • NVIDIA NIM: --provider nvidia-nimで接続
  • Fireworks: --provider fireworksで接続
  • セルフホストSGLang: SGLANG_BASE_URL環境変数を設定するだけ
  • セルフホストvLLM: VLLM_BASE_URL環境変数を設定するだけ

つまり、DeepSeek V4をローカルにデプロイしてオフラインでエージェントを使用できる。

Zedエディタ統合

DeepSeek-TUIはACP(Agent Client Protocol)をサポートしており、Zedエディターのカスタムエージェントとして直接使用できる:

{
  "agent_servers": {
    "DeepSeek": {
      "type": "custom",
      "command": "deepseek",
      "args": ["serve", "--acp"]
    }
  }
}

v0.8.14 アップデートの要点

最新のv0.8.14リリースは安定化バージョンで、主要な改善点を含む:

  • Autoモード復活: --model auto/model auto、設定項目、サブエージェントすべてが自動ルーティングをサポート
  • 1ターンごとのコスト計算修正: V4推論トークンが正しく課金対象出力としてカウントされるように
  • 初回セットアップ最適化: 設定ファイルがない場合、自動的にAPIキー設定をガイド
  • vLLMプロバイダー対応: セルフホストvLLMエンドポイントを直接接続可能

インストール方法

# npm(最も簡単、事前ビルドバイナリを自動ダウンロード)
npm install -g deepseek-tui

# Cargo(Rustユーザー向け)
cargo install deepseek-tui-cli --locked   # deepseek エントリーポイント
cargo install deepseek-tui     --locked   # deepseek-tui インターフェース

# Homebrew(macOS)
brew tap Hmbown/deepseek-tui
brew install deepseek-tui

# ミラー加速(中国国内)
npm install -g deepseek-tui --registry=https://registry.npmmirror.com

なぜ注目すべきなのか?

DeepSeek-TUIの急成長はいくつかの深いトレンドを示している:

  1. ターミナルエージェントは実需: 開発者はAIコーディングのためにターミナルを離れたくない。DeepSeek-TUIは「ターミナル内のAIエージェント」というパラダイムに巨大な市場があることを証明した
  2. DeepSeekエコシステムの急速な成熟: DeepSeekモデル周辺のサードパーティツールエコシステムが急速に拡大——TUIからMCPからSkillsまで、その完成度はOpenAIエコシステムに匹敵する
  3. オープンソース代替案の台頭: CursorやClaude Codeが高くなる中、無料・オープンソース・Rust製の高性能エージェントが開発者の第一選択肢になりつつある
  4. 中国開発者に優しい: 中国語ローカライズ組み込み、npm/Cargo国内ミラー対応、DeepSeek APIの低コスト——これはほぼ中国開発者向けにカスタマイズされたようなもの

まとめ

DeepSeek-TUIはチャットツールをラップしただけのものではない——本物のターミナルコーディングエージェントだ。11.3kのGitHubスターと1日2,434スターの成長は、市場が足で投票していることを示している:ターミナルAIエージェント、オープンソース、そしてDeepSeekモデルの組み合わせは、2026年の開発者ツールの新たな標準になりつつある。

まだClaude CodeやCursorを使っているなら、DeepSeek-TUIを試す価値は大いにある。npm install -g deepseek-tui のコマンド1つで始められ、DeepSeek APIの価格は現在のコストの10分の1かもしれない。