Claude Sonnet 4.6がリリースされた
2026年2月17日にClaude Sonnet 4.6がリリースされました。
Anthropicの社内評価では、
- Sonnet 4.5との比較で70%、Opus 4.5との比較でも59%の確率でユーザーに選ばれた
- コーディングとコンピュータ使用が特に向上している
とのことです。
Bedrock 経由でClaude Codeを使っているので、さっそく Sonnet 4.6に切り替えてみました。
Bedrockで使おうとしたらエラーが出た
Bedrock でモデルが利用可能か確認しました。
aws bedrock list-foundation-models --region ap-northeast-1 \
--query 'modelSummaries[?contains(modelId, `claude-sonnet-4-6`)]' \
--output table結果
------------------------------------------------------
| ListFoundationModels |
+------------------------------+---------------------+
| ModelId | Name |
+------------------------------+---------------------+
| anthropic.claude-sonnet-4-6 | Claude Sonnet 4.6 |
+------------------------------+---------------------+東京・大阪リージョンも使えます。
既存のプロジェクトディレクトリでは、Claude Codeの設定ファイル .claude/settings.local.json にモデルIDを追加しました。
{
"model": "anthropic.claude-sonnet-4-6"
}実際に API を叩いてテスト。
aws bedrock-runtime invoke-model \
--region ap-northeast-1 \
--model-id anthropic.claude-sonnet-4-6 \
--body '{"anthropic_version":"bedrock-2023-05-31","max_tokens":100,"messages":[{"role":"user","content":"Hi"}]}' \
--cli-binary-format raw-in-base64-out \
/tmp/test.jsonエラーが出ました。
An error occurred (ValidationException) when calling the InvokeModel operation:
Invocation of model ID anthropic.claude-sonnet-4-6 with on-demand throughput
isn't supported. Retry your request with the ID or ARN of an inference profile
that contains this model.anthropic.claude-sonnet-4-6 は直接呼び出せません。
Inference Profileが必要だった
推論プロファイル(Inference Profile) を使う必要があります。知らなかったです。
推論プロファイルを使用してモデル呼び出しリソースを設定する – Amazon Bedrock
調べたところ、Inference Profileは簡単に言うと、モデル + リクエストのルーティング先(リージョンの情報など)をまとめた Bedrock のリソースのことです。
- モデル呼び出しのルーティングを管理
- 使用状況(メトリクス)を追跡
- コスト管理(タグ付け)
- IAMポリシーとの連携
こんなことができます。要するにInference Profileを使うと、背後で適切なモデル・リージョンにルーティングしてくれて管理しやすくなります。
設定方法
API呼び出し
Sonnet 4.6はInference Profile経由でしか使えません。
aws bedrock-runtime invoke-model \
--region us-east-1 \
--model-id us.anthropic.claude-sonnet-4-6 \
--body '{"anthropic_version":"bedrock-2023-05-31","max_tokens":50,"messages":[{"role":"user","content":"Say hi"}]}' \
--cli-binary-format raw-in-base64-out \
/tmp/test.json--model-id us.anthropic.claude-sonnet-4-6 これが推論プロファイルのIDです。
成功しました。
{
"model": "claude-sonnet-4-6",
"content": [
{
"type": "text",
"text": "Hi there! 👋 How are you doing? Is there something I can help you with today?"
}
],
"stop_reason": "end_turn",
"usage": {
"input_tokens": 9,
"output_tokens": 25
}
}Claude Code の設定
既存のプロジェクトへの適用は.claude/settings.local.json を以下のように修正します。
{
"model": "us.anthropic.claude-sonnet-4-6",
"env": {
"AWS_REGION": "us-east-1"
}
}ポイント
- USプロファイルを使う場合:
model: us.anthropic.claude-sonnet-4-6AWS_REGION: us-east-1
- JPプロファイルを使う場合:
model: jp.anthropic.claude-sonnet-4-6AWS_REGION: ap-northeast-1
Inference Profileの種類
以下のプロファイルがあります。
- JP プロファイル:
jp.anthropic.claude-sonnet-4-6- 東京・大阪にルーティング
- 日本国内でレイテンシを抑えたい場合
- US プロファイル:
us.anthropic.claude-sonnet-4-6- 米国の複数リージョンにルーティング
- グローバルで使う場合
- EU プロファイル:
eu.anthropic.claude-sonnet-4-6- 欧州リージョンにルーティング
- GDPR 対応など
所感
従来のモデル(Sonnet 3.5 など)は直接 anthropic.claude-3-5-sonnet-* を指定できていましたが、Sonnet 4.6 からは推論プロファイル(Inference Profile)経由が必須になったとのことです。
Bedrockの仕様が少しずつ変わっているので、新しいモデルを試すときは公式ドキュメントを確認したほうがよさそうです。
参考
ここまで読んでいただき、ありがとうございます。もしこの記事の技術や考え方に少しでも興味を持っていただけたら、ネクストのエンジニアと気軽に話してみませんか。
- 選考ではありません
- 履歴書不要
- 技術の話が中心
- 所要時間30分程度
- オンラインOK