Hinakira AI News

HinakiraAI News

プロンプト・活用術

【Claude Code節約術】"原始人プロンプト"でトークンを75%節約可能?

Qiita AI公開: 2026年4月5日
出典:Qiita AI

この記事のポイント

  • 1前置きや解説を禁止する「原始人プロンプト」によりトークンを最大75%削減可能
  • 2CLAUDE.mdにルールを記述し、Haikuモデルをサブタスクに割り当てる設定が有効
  • 3丁寧なナレーションを削ることで、1回の制限内でこなせる作業量が大幅に増加

要約

AIコーディングツール「Claude Code」において、消費トークンを劇的に削減するための手法「原始人プロンプト(Caveman Prompt)」が紹介されています。この手法は、Claudeに「原始人のように必要最小限のことだけ話せ」と命じることで、挨拶や解説などの不要な出力を排除するものです。具体的には、プロジェクト内の「CLAUDE.md」にコミュニケーションスタイルを定義し、前置きやナレーションを禁止するルールを徹底させます。さらに、設定ファイルの「settings.json」を書き換え、補助的なタスクに安価な「Claude 3 Haiku」を割り当てるなどの調整を行うことで、計測結果ではAPI疎通調査やデバッグなどのタスクでトークン消費量を約67%〜75%も削減できたと報告されています。これにより、Anthropicが設けている5時間あたりのトークン制限を大幅に緩和し、実質的な作業時間を延ばすことが可能になります。

出典:Qiita AI の情報をもとにAIが要約

当サイトの考察

ヒナキラです!先週、Anthropicが「Claude Codeのトークン消費が予想以上に早い理由」について公式に釈明したニュースをお伝えしましたが、それに対するユーザー側からの「最強の解決策」が早くも登場しましたね。この「原始人プロンプト」、名前はコミカルですが、中身は極めて合理的です。AIとの対話において、私たちが無意識に消費している「丁寧すぎる挨拶」や「今から検索しますという宣言」がいかにコストを圧迫していたかが数値で証明されました。個人で開発を行っている副業者やクリエイターにとって、トークン制限は死活問題です。特に「Haiku」モデルをサブエージェントに設定して、メインの「Sonnet」を温存するテクニックは今すぐ取り入れるべきTips。AIを「友達」ではなく、冷徹なまでに効率的な「ツール」として再定義する、バイブコーディング時代の必須スキルと言えるでしょう。便利さと引き換えに増大するコストを、知恵で抑え込む……これこそがAIを使いこなす醍醐味ですね!

よくある質問

Q原始人のような話し方で、回答の精度は落ちませんか?
A

精度自体に大きな影響はありません。むしろ余計な「独り言」が減ることで、AIが本来のタスクに集中しやすくなるメリットもあります。ただし、詳細な解説が必要な場合は「解説して」と明示する必要があります。

QCLAUDE.md以外でもこの手法は使えますか?
A

はい、通常のChatGPTやClaudeのカスタム指示(Custom Instructions)でも有効です。「前置き不要、結論のみ、箇条書きで」と指示するだけで、トークン節約と時短の両方を実現できます。

QサブエージェントをHaikuにするメリットは何ですか?
A

ファイルの中身を確認したり、単純な検索をしたりする作業に、高価で制限の厳しいSonnetモデルを使わずに済むため、メインの知能を温存しつつ全体のコストを抑えられます。

用語解説

トークン

AIがテキストを処理する際の最小単位。文字数に近い概念だが、消費量に応じてコストや利用制限が決まる。

CLAUDE.md

Claude Codeがプロジェクトの文脈やルールを理解するために読み込む設定ファイル。

サブエージェント

メインのAIが別のタスクを指示するために呼び出す、補助的なAIモデルのこと。

※ この記事の要約・考察・FAQ・用語解説はAIによって生成されています。正確な情報は元記事をご確認ください。

この記事をシェアする

ヒナキラ

ヒナキラ

Hinakira AI News 編集長

AIツール・LLM・プロンプト活用術を中心に、個人クリエイター・副業者向けのAI最新情報を毎日お届けしています。AI歴3年以上、いろんな用途に実際に使って試してきた知見をもとに、読者が「自分ごと」として活用できる考察を心がけています。