Claude APIを使いはじめた頃、モデル指定のところで「claude-sonnet-4-6って書けばいいの?Opusのほうが賢いって聞いたけど……」と思考停止した記憶があります。名前がオシャレすぎて逆にわかりにくいんですよね、Haiku(俳句)、Sonnet(ソネット)、Opus(オーパス)って。
2026年2月時点でClaudeのモデルラインナップが更新されたので、改めてSonnet・Opus・Haikuの違いと使い分けをまとめておきます。自分用メモが主目的ですが、同じく迷っている方の参考になれば。
- Haiku・Sonnet・Opusそれぞれの立ち位置と特徴
- 2026年2月時点の最新モデル名とAPI料金
- ベンチマークスコアの読み方
- 用途別の使い分け判断基準
- PythonでのAPI呼び出しサンプル
まず3つのモデルの”立ち位置”を把握する
ClaudeはAnthropicが開発するLLMファミリーで、現在は3つのグレードに分かれています。名前の由来が詩や音楽の形式なのは、「言語を扱うAI」らしい命名センスだなと思いますが、それはさておき。
- Haiku(ハイク):軽量・高速・低コスト。とにかく速さとコスパ優先
- Sonnet(ソネット):バランス型。性能とコストのちょうど中間地点
- Opus(オーパス):最高性能のフラッグシップ。複雑なタスク向け
シンプルに言うと「Haiku=安くて速い」「Sonnet=バランス重視」「Opus=最高品質」です。ただ、2026年2月時点では世代も進んでいて、単純な上下関係だけで語れない部分も出てきています。
現行モデルと料金一覧
Anthropicは2026年2月5日前後に最上位モデル「Claude Opus 4.6」を公開し、2月17日には「Claude Sonnet 4.6」も登場しています。現在のメインラインナップはこんな感じです。
現行モデル名とAPI料金(1Mトークンあたり)
| モデル | APIモデルID(例) | 入力(/1M tokens) | 出力(/1M tokens) |
|---|---|---|---|
| Claude Opus 4.6 | claude-opus-4-6(または日付つきID) |
$5.00 | $25.00 |
| Claude Sonnet 4.6 | claude-sonnet-4-6(または日付つきID) |
$3.00 | $15.00 |
| Claude Haiku 4.5 | claude-haiku-4-5(例:claude-haiku-4-5-20251001) |
$1.00 | $5.00 |
※料金は標準(≤200K input tokens)の場合。なお、1Mコンテキスト(beta)を有効化したうえで入力トークンが200Kを超えると「ロングコンテキスト料金(プレミアム料金)」が自動適用されます。最新の正確な料金は公式のPricingページで確認してください。
OpusとHaikuを比べると入力コストで5倍の差があります。大量処理をするシステムを組む場合、どのモデルを使うかでコストが文字通りケタ違いになります。
コスト削減オプションも存在する
料金周りで知っておくと便利なオプションが2つあります。
- Batch API:非同期処理向けにBatch APIを利用すると入出力のトークンに対して50%割引で処理が可能です。大量のデータをまとめて処理するバッチ系タスクにはかなり有効です
- Prompt Caching:キャッシュを使うと、条件次第で最大90%のコスト削減が可能です(主にキャッシュヒット時の入力コストが大きく下がります)。会話履歴が長くなるチャットボット系のシステムでは特に恩恵が大きいです
余談ですが、自分が最初にClaude APIを触ったとき、Prompt Cachingの存在を知らずにシステムプロンプトを毎回フル送信していました。もったいなかった……。
Claude Haiku・Sonnet・Opusの特徴を深掘りする
Claude Haiku 4.5 ——「安い・早い・そこそこ賢い」
Haikuは3モデルの中で最も軽量・高速です。「廉価版だから性能が低い」というイメージを持ちがちですが、4.5世代になって実用性がかなり上がっていて、用途によっては「これで十分」になりやすいです。
向いている用途はこのあたり:
- チャットボットのフロントエンド(リアルタイムで返答が必要な場面)
- 大量のデータ分類・ラベリング(1万件のサポートチケットを分類する、など)
- APIを挟んだ自動化パイプラインの中間処理
- 低コストでスループット重視のワークロード
(体感ですが)コンテキストが長くなるほど難しくなるので、短くシュッと終わるタスクとの相性がいいです。
Claude Sonnet 4.6 ——「実は9割の用途はこれで足りる」
Sonnet 4.6は「速度・性能・価格」のバランスが良いモデルです。公式発表でも、価格はSonnet 4.5と同じ$3/$15のまま据え置きになっています。
向いている用途はこのあたり:
- コーディング支援
- 資料作成・文章生成・要約
- データ分析・ロジカルな推論
- 一般的なビジネス用途全般
あと、ここは記事内で誤解が起きやすいので書いておくと、Claudeのドキュメント上は「ナレッジカットオフ(信頼できる知識のカットオフ)」と「学習データのカットオフ」が分けて書かれています。Sonnet 4.6の信頼できる知識のカットオフは2025年1月で、Opus 4.6は2025年5月、Haiku 4.5は2025年2月です(学習データのカットオフは別枠)。
Claude Opus 4.6 ——「本当に必要な場面で使う最高峰」
Opus 4.6はAnthropicのフラッグシップで、エージェント用途や難しい推論・コーディングで強いモデルです。APIドキュメント上も「最も知能が高いモデル」という位置づけになっています。
Opusならではの強みはこのあたり:
- 1Mコンテキスト(beta)を使って超長文を扱う必要がある
- 最大出力が128Kトークン必要(Sonnetは64Kまで)
- 高精度のエージェント開発が必要(自律的に複数ツールを操作するタスク)
- Adaptive thinking(適応的に考えるモード)を活用した深い推論が必要な場面
- 複雑な法律・医療・専門領域の文書分析(※もちろん最終判断は人間側で)
ただし料金が$5/$25と高めなので、「すごそうだからとりあえずOpus」はコスト的に厳しいです。まずSonnetで試して、品質に不満が出たらOpusを検討、という流れが現実的だと思います。
ベンチマークの数字、どう読めばいい?
Claudeのモデルを比較するとき「SWE-bench Verified」とか「ARC-AGI-2」とかいう指標がよく出てきます。全部追うのはしんどいので、よく見るものだけ把握しておくと判断の助けになります。
主要ベンチマーク早見表
- SWE-bench Verified:実際のGitHubのissueを解決する能力を測るコーディングベンチマーク。開発用途なら一番参考になります。
- ARC-AGI-2:汎用的な推論・問題解決能力を測る指標。
- OSWorld:コンピューター操作(画面を見てクリックする系)の能力。
※具体的なスコアは計測条件や版によって変わるので、数字を参照したい場合はAnthropicの公式ブログやベンチマーク公式ページで出典つきのものを確認するのが安全です。
ベンチマークはあくまで参考値です。「自分のユースケースで実際に動かしてみて判断する」というのが結局一番大事で、そこは変わらないかなと思います。
PythonでClaude APIを呼び出すサンプル
Haiku・Sonnet・Opusを実際にコードで切り替える際の参考に、サンプルを書いておきます。
基本的な呼び出し(モデル指定あり)
import anthropic
client = anthropic.Anthropic(api_key="YOUR_API_KEY")
# モデルIDを変数で管理するとあとで切り替えやすい
# 迷ったら、まずは公式の短いID(エイリアス)を使うのが安全です
MODELS = {
"haiku": "claude-haiku-4-5",
"sonnet": "claude-sonnet-4-6",
"opus": "claude-opus-4-6",
}
def ask_claude(prompt: str, model_key: str = "sonnet") -> str:
"""指定モデルでClaudeに問い合わせる"""
message = client.messages.create(
model=MODELS[model_key],
max_tokens=1024,
messages=[
{"role": "user", "content": prompt}
]
)
return message.content[0].text
# 使い分け例
quick_answer = ask_claude("東京の天気の傾向を一言で", model_key="haiku")
detailed_answer = ask_claude("機械学習とディープラーニングの違いを詳しく説明して", model_key="sonnet")
complex_answer = ask_claude("以下の長文ドキュメントを分析して...", model_key="opus")
日付つきのモデルID(claude-sonnet-4-6-20260217など)を固定で書く方法もありますが、公式ドキュメント上はまずclaude-sonnet-4-6のようなエイリアスが提示されています。特定バージョンに固定したい事情がなければ、エイリアスのほうがメンテが楽です。
タスクの複雑さでモデルを自動選択する(簡易版)
import anthropic
client = anthropic.Anthropic(api_key="YOUR_API_KEY")
MODELS = {
"haiku": "claude-haiku-4-5",
"sonnet": "claude-sonnet-4-6",
"opus": "claude-opus-4-6",
}
def select_model(prompt: str) -> str:
"""
プロンプトの長さでモデルをざっくり自動選択する(簡易版)
- 短い(200文字未満) → Haiku
- 中程度(200〜800文字)→ Sonnet
- 長い(800文字超) → Opus
"""
length = len(prompt)
if length < 200:
return MODELS["haiku"]
elif length < 800:
return MODELS["sonnet"]
else:
return MODELS["opus"]
def smart_ask(prompt: str) -> dict:
model_id = select_model(prompt)
message = client.messages.create(
model=model_id,
max_tokens=1024,
messages=[{"role": "user", "content": prompt}]
)
return {
"model_used": model_id,
"response": message.content[0].text
}
result = smart_ask("こんにちは!")
print(f"使用モデル: {result['model_used']}")
print(f"返答: {result['response']}")
これはあくまで「プロンプトの文字数で振り分ける」超簡易版です。本番でやるなら、タスクの種類(コーディング系か会話系か)や必要な精度によって振り分けロジックを作り込むほうがいいです。自分もまだそこまでできていないですが……。
結局どのClaudeモデルを選べばいいか
迷ったときの判断フローをざっくり整理するとこうなります。
- まずSonnet 4.6を基準にする:コーディング、文章生成、一般的な分析なら困ることはかなり少ないはずです
- 速度とコストが最優先 → Haiku 4.5:チャットボットのリアルタイム応答や大量の定型処理にはこちらを
- Sonnetで品質が足りないと感じたら → Opus 4.6:超長文処理・高精度エージェント・深い推論が必要な専門タスクなど。料金が高いので、本当に必要な場面に絞るのが現実的です
個人的には「最初はSonnetだけ使って、困ったら考える」が一番コスパいいと思っています。Opusを試したくなる気持ちはわかりますが、料金を見てから冷静になれる……。
※この記事にはプロモーションが含まれます
ちなみに、PLAUD NOTE(AIボイスレコーダー。録音から文字起こし・要約まで自動で行える)も気になっています。PLAUD NOTE![]()
まとめ
- Haikuはモデルラインナップの中で最も軽量・高速・低コスト。大量の定型タスクに向く
- Sonnet 4.6はバランス型で、価格は入力$3/出力$15(1M tokensあたり)で据え置き。まずはこれを基準にするのがラク
- Opus 4.6は超長文処理・高精度エージェント・深い推論が必要な場面向けのフラッグシップ。コスト高めなので使い所を選ぶ
- Batch APIで50%オフ、Prompt Cachingで最大90%オフというコスト削減手段もある
Claudeのモデルは更新が入るので、最新情報は公式ドキュメント(モデル概要・Pricing)を見るのが確実です。参考になれば!

