Amazon Bedrock Client for Mac とは
AWSがGitHubで公開・提供している "Amazon Bedrock Client for Mac" というMac用のクライアントアプリケーションです。
https://github.com/aws-samples/amazon-bedrock-client-for-mac
Mac専用とはなりますが、Amazon Bedrockの生成AIを利用するためのクライアントアプリケーションであり、Mac上で簡単に生成AIを試すことができます。

通常Bedrockが提供する各種生成AIモデルを試す際には、マネジメントコンソールにあるプレイグラウンドから試すケースが多いですが、 プレイグラウンドはあくまでプレイグラウンドであり、一般的なチャットアプリケーションのように会話の履歴を保持して後から参照したりすることはできず、 利用するには毎回マネジメントコンソールにアクセスする必要もあります。
"Amazon Bedrock Client for Mac"をインストールすることで、ChatGPTやClaude Desktopのような感覚で、 Bedrockの生成AIモデルを利用することが可能になります。
単純な1問答の動作ではなくいわゆるThinkingやReasoningと呼ばれる、思考しながら最終的な回答を出すモデルの動作にも 対応しており、一般的な生成AIのチャットサービスと同じように活用可能です。
ChatGPTやClaude Desktopのように必要に応じてWebを検索したり、コードを実行したりといったエージェンティックな動作はできないのですが、
MCPにも対応していますので、各種MCPサーバーを活用することで近しい動作を実現することは可能です。
gpt-ossのサポート
2025年8月8日のv1.3.11で、先日OpenAIから公開されたOSS版のGPTであるgpt-oss-20b, gpt-oss-120bがサポートされました。
https://github.com/aws-samples/amazon-bedrock-client-for-mac/releases/tag/v1.3.11
Bedrockのgpt-oss-20b, gpt-oss-120bの料金は非常に安価に設定されており、Amazonが提供しているNovaシリーズのモデルよりもさらに安価に利用することが可能です。 gpt-oss-20bはo3-mini相当、gpt-oss-120bはo4-mini相当の一部ベンチマーク結果が達成できるとのことですので(https://openai.com/ja-JP/index/introducing-gpt-oss/)、Bedrockでこれらを利用できることは非常にメリットが大きいのではないでしょうか。
本記事では、"Amazon Bedrock Client for Mac"をご紹介しつつ、gpt-ossを利用する方法もご紹介します。
- Amazon Bedrock Client for Mac とは
- gpt-ossのサポート
- Amazon Bedrock Client for Macのインストール
- Bedrockのモデルアクセス設定
- Amazon Bedrock Client for Macの認証
- アプリの利用例
- データの保存先など
- Windowsの場合の補足情報
- おわりに
Amazon Bedrock Client for Macのインストール
こちらからダウンロードが可能です。
https://github.com/aws-samples/amazon-bedrock-client-for-mac?tab=readme-ov-file#download
"DOWNLOAD"のボタンをクリックすると dmg ファイルがダウンロード可能です。

dmgファイルをダブルクリックして、アプリケーションフォルダにドラッグすることでインストールします。

もしくは Homebrew からもインストール可能です。
# Add the tap brew tap didhd/tap brew update # Install Amazon Bedrock Client brew install amazon-bedrock-client --no-quarantine
初回起動時の注意
初めてアプリを起動する際には、macOSのセキュリティ機能で起動がブロックされます。 その場合は「完了」をクリックして一旦ダイアログを閉じます。

その後、Macの「システム環境設定」→「セキュリティとプライバシー」を開き、 "Amazon Bedrock.app"がブロックされました。というメッセージが表示されるので、「このまま開く」をクリックします。

さらにダイアログが開きますので、「このまま開く」をクリックします。

その後Macユーザーのパスワードが求められますので入力します。 これでアプリが起動します。
※もしご自身で公式のGitHubリポジトリやbrewでアプリをインストールした覚えがない場合は上記操作は行わず、対象ファイルを削除してください。あくまでご自身で信頼できるソースからインストールした場合にのみ、上記の操作を行ってください。
Bedrockのモデルアクセス設定
もしまだBedrockの各種モデルへのアクセス設定を実施されていない場合は、 まずAWSマネジメントコンソールのBedrockの画面でモデルアクセスを設定する必要があります。
今回ご紹介するgpt-oss系は米国西部(オレゴン)(us-west-2)でのみ利用可能ですので、米国西部(オレゴン)にて gpt-oss-20b, gpt-oss-120bを利用するための設定を行ってください。
"Bedrock"の画面で左ペインから「モデルアクセス」を選択し、「特定のモデルを有効にする」を選択します。(「すべてのモデルを有効にする」でも可能です)

gpt-oss-20bとgpt-oss-120bを選択し、「次へ」をクリックします。

内容を確認して問題なければ「送信」します。

Amazon Bedrock Client for Macの認証
Amazon Bedrock Client for Macの認証は、MacのAWS CLIの認証情報が利用されます。
(~/.aws/config, ~/.aws/credentials)
利用するAWSアカウントにてBedrockを利用できるIAMユーザやAWS IAM Identity Centerの認証設定を行なっておくことで利用可能です。
どのプロファイルを利用するかは、アプリの設定画面で選択できます。 アプリ右上の歯車マークをクリックします。

設定画面が開きますので、"AWS Profile"のドロップダウンから利用するプロファイルを選択可能です。
ここで利用するリージョンも選択しますので今回の場合は米国西部(オレゴン)(US West(Oregon))を選択しておきます。

アプリの利用例
gpt-ossの利用例と必要な設定
これで gpt-oss-20b と gpt-oss-120b を利用したチャットが可能になっているはずです。
チャット画面の上部でモデル選択が可能です。 こちらでは絞り込みも可能なので、"gpt"と入力すると gpt-oss-20b と gpt-oss-120b が表示されます。 gpt-oss-120bを選択してみます。

この状態でチャットを開始してみます。
が、以下のようにエラーになります。

「このモデルはストリーミングをサポートしていません」というエラーです。
Bedrock gpt-ossは現在ストリーミングをサポートしていないようなので、設定で無効化します。
先日のv1.3.11でのgpt-ossサポートのリリース時に、ストリーミングが設定で切り替えできるように対応されています。
画面右上の「Config」をクリックし、"Override Default Config"をオンにします。

最下部までスクロールし、"Enable Streaming"をオフにします。

これでもう一度質問してみます。
すると、ストリームではないため数十秒待ったあと、以下のように一気に回答が出力されました。

少し崩れていますが、Thinkingの内容も出力されています。
CoTした上で回答を出力しているのがわかります。
今現在はまだストリーミングでの出力に対応していないのが残念ですが、 今後のアップデートに期待したいと思います。
その他モデルの利用例
LLM
同じくThinkingなモデルである"Claude Opus 4.1"といったAnthropic社の最新モデルも米国西部(オレゴン)のBedrockであれば利用可能です。 こちらも前述のとおりモデルアクセスを有効化しておけば利用可能です。
他にも例えばAmazonが提供しているNovaシリーズや、Anthropic社のClaudeシリーズ、MetaのLLaMAシリーズなどが利用可能です。
例として、Claude Opus 4.1はストリーミングに対応していますので、質問をすると以下のようにまず"Thinking..."というメッセージが表示され、デフォルトでは表示が省略されていますが思考過程がリアルタイムに出力されます。

その後回答出力もリアルタイムに行われます。

また、マルチモーダルなモデルあれば画像を添付して質問することも可能です。

Excel, Word, PDFなどの処理
Microsoft Office系のドキュメント(Excel, Word, PDFなど)の処理も可能です。
以下はBedrockの料金をまとめたExcelファイルを添付して質問した例です。

画像生成(拡散モデル)
Stability AIのStable DiffusionやStable Image Ultra, AmazonのNova Canvasなどの画像生成モデルも利用可能です。(細かいパラメータの指定はできません)

埋め込みモデル
用途が想像できませんが、RAGで利用される埋め込みモデルも利用可能です。
以下のように入力テキストを元にしたベクトルが返されます。
Titan Text Embeddings v2のベクトルのため1024次元のベクトルが返されています。

MCPによる機能拡張
Amazon Bedrock Client for MacはMCPにも対応しており、設定からMCPサーバーを指定することが可能です。
歯車マークの設定画面の、"Developer"タブを開き、"Enable MCP"をオンにします。
そして"+ Add Server"をクリックします。

ここではAWSが提供している "AWS Documentation MCP Server" を追加してみます。
https://awslabs.github.io/mcp/servers/aws-documentation-mcp-server/
上記ドキュメントに記載のとおりcommandやargsを設定すればOKです。
※Prerequisitesにあるように、Python実行環境とuvが必要です。
設定後"Add"をクリックします。

問題なければ、以下のようにMCPサーバーが追加され、緑色のチェックマークが表示されます。

これで、チャットでやり取りする際にMCPサーバーを利用した動作が可能となります。
以下は Nova Pro を利用してAmazon VPCにおいて推奨されないCIDRを尋ねた例です。

"Using tool"と"Tool Result"というトグルを展開すると以下のようにMCPサーバ利用時の情報と、結果を参照することが可能です。

なお、2025年8月8日時点では、gpt-oss系ではMCPサーバーの利用はできませんでした。 こちらも今後のアップデートに期待したいと思います。
設定ファイルによるMCPサーバーの設定
MCPサーバーの設定は設定ファイルを直接編集することでも設定可能です。
パスは以下です。
/Users/<User Name>/Amazon Bedrock Client/mcp_config.json
{ "mcpServers" : { "aws-documentation-mcp-server" : { "command" : "uvx", "args" : [ "awslabs.aws-documentation-mcp-server@latest" ], "env" : { "AWS_DOCUMENTATION_PARTITION" : "aws", "FASTMCP_LOG_LEVEL" : "ERROR" } } } }
データの保存先など
Amazon Bedrock Client for Macの会話履歴やデータはBedrock側でモデルの呼び出しログを有効化していない限りは、すべてローカルに保存されます。 以下のパスに保存されますのでもし完全に削除する必要がある場合はこれらを確認しクリーンアップすれば大丈夫かと思います。
会話履歴本体やログ
/Users/<User Name>/Amazon Bedrock Client ├── 2025-08-10 at 6.14.47 AM.png # 生成した画像 ├── 2025-08-10 at 6.56.18 AM.png ├── history # チャット履歴 │ ├── 199430A2-57E2-415C-838B-006977C63BE3_unified_history.json │ ├── 305BBF03-89F7-4591-B18C-13CB7C094CEC_history.txt │ ├── 305BBF03-89F7-4591-B18C-13CB7C094CEC_unified_history.json │ └── F68ADB83-35BE-4EC6-9B7C-006885FD04BB_unified_history.json ├── logs # アプリの動作ログ │ ├── log-2025-mm-dd.log │ └── log-2025-mm-dd.log ├── mcp_config.json # MCP設定 ├── messages # 過去の履歴保存先(と思われます。現在は未使用) └── Updates # アプリのアップデート関連 ├── install_update.sh ├── launch_update.sh └── update_log.txt
データベース
会話履歴のタイトルやモデル名の保持先
/Users/<User Name>/Library/Application Support/Amazon Bedrock ├── ChatModel.sqlite ├── ChatModel.sqlite-shm └── ChatModel.sqlite-wal
Windowsの場合の補足情報
Amazon Bedrock Client for MacはMac専用のため、WindowsやLinuxでは利用できません。
WindowsやLinuxでも利用可能な、クライアントのサンプル実装が同じくAWS Sampleにて提供されています。
https://github.com/aws-samples/sample-client-for-amazon-bedrock

ただしこちらはあくまでサンプル実装であり、
It is not a production-ready client, and it should not be used in a production environment without further development and testing.
と明記されているため本当にお試しで利用する場合にのみご利用可能かと思います。
また、こちらは以下のような注意点がありますので少し利用しにくいかもしれません。
- 日本語の変換入力中に意図せずテキストが送信されてしまう
- 認証がアクセスキー、シークレットキーの直接指定しかできない
おわりに
本記事ではMacで利用可能なAmazon Bedrock Client for Macをご紹介し、 gpt-oss-20b, gpt-oss-120bを利用するための設定方法について解説しました。
gpt-ossは出たばかりということで現時点ではAmazon Bedrock Client for Macでの使い勝手が良いとは言えないのですが、今後のアップデートに期待大かと思います。
Amazon Bedrock Client for Macを利用することで、月額の固定料金というサブスクリプションではなく 使った分だけの従量制料金で様々な生成AIモデルを利用できるようになります。
特にgpt-oss系はとても安価な価格設定がされており、具体的に示しますと例えばo3-miniと一部同等とアピールされているgpt-oss-20bでは
入力トークンが1億トークン、出力トークンが1000万トークンとしても、なんと利用料は $10 程度となります。(入力$7, 出力$3)
(Claude Opus 4の場合は同量を処理すると合計で $2,250、Claude Sonnet 4で $450 です)
参考に米国西部(オレゴン)(us-west-2)におけるOpenAI, Anthropic, Amazonの各モデルのオンデマンドの料金は以下の通りです。
gpt-oss-20bはAmazon Nova Lite並の低価格となっていることがわかります。(2025年8月8日時点)
| モデル名 | 1,000入力トークンあたりの価格(USD) | 1,000出力トークンあたりの価格(USD) |
|---|---|---|
| gpt-oss-20b | 0.000070 | 0.000300 |
| gpt-oss-120b | 0.000150 | 0.000600 |
| Claude Opus 4.1 | 0.015000 | 0.075000 |
| Claude Opus 4 | 0.015000 | 0.075000 |
| Claude Sonnet 4 | 0.003000 | 0.015000 |
| Claude 3.7 Sonnet | 0.003000 | 0.015000 |
| Claude 3.5 Sonnet | 0.003000 | 0.015000 |
| Claude 3.5 Haiku | 0.000800 | 0.004000 |
| Claude 3.5 Sonnet v2 | 0.003000 | 0.015000 |
| Amazon Nova Micro | 0.000035 | 0.000140 |
| Amazon Nova Lite | 0.000060 | 0.000240 |
| Amazon Nova Pro | 0.000800 | 0.003200 |
| Amazon Nova Pro (w/ latency optimized inference) | 0.001000 | 0.004000 |
| Amazon Nova Premier | 0.002500 | 0.012500 |
最新の正確な情報は公式ページを参照ください。
https://aws.amazon.com/bedrock/pricing/
大量のテキストを処理する場合でも、コストを抑えつつ高性能なモデルを利用できるのは大きなメリットかと思います。
MacとAWSをご利用の方は是非一度Amazon Bedrock Client for Macをお試しください。
久保 賢二(執筆記事の一覧)
猫とAWSが好きです。