【AWS re:Invent 2025】Amazon Bedrock でロボットを操縦する「Command a Robot with Amazon Bedrock」

記事タイトルとURLをコピーする

本稿では、AWS re:Invent 2025 の EXPO 内 Builder’s Fair で展示された内容の紹介になります。

具合悪くなったらまずビタミンをとれ!リンゴ食え!
内村でございます。

ただいま、アメリカはネバダ州のラスベガスで開催されている AWS re:Invent 2025 に参加しています。(2本目)
今年の re:Invent でも、開発者による手作りデモが集まる『Builder’s Fair』は大盛況でした。

本記事では、私が気になってたブース「Command a Robot with Amazon Bedrock」をレポートします。

内容についての諸注意

当記事は 2025年12月時点で調査した製品、サービス内容を記載しています。 最新の情報に関しては各種公式サイト、マニュアル等をご確認下さい。
当記事作成の際には十分注意しておりますが、内容に公式と相違がある場合は公式を優先とさせていただきます。
当記事内の試算およびそれに準ずる内容は、本資料の説明のために用いるものであり、不利益が生じた場合、一切の責任は負いかねますので予めご了承ください。

Command a Robot with Amazon Bedrock ブースとは

AWS やパートナーが出展している EXPO には様々なブースがあります。 このブースの黒板には『Command a Robot with Amazon Bedrock』の文字。 ピンクのバルーンに囲まれた可愛らしい見た目とは裏腹に、内容はなかなか本格派です。

モニター内には「Bedrock Robot Control」という Web アプリが表示されています。 以下のコマンドが確認できます。

  • Patrol in a square
  • Find Person on Phone
  • Patrol and Find Person
  • Return to Start

テキスト入力欄に指示を入力し「Send Command to Robot」ボタンを押すと、後ろに置かれた小型ロボットが動き出し、指示に応じて巡回したり人を探したりします。
(執筆時にメインのロボットの近影を撮れてないことに気付き、意気消沈)

画面下部には ROS(Robot Operating System)のコード断片らしきテキストがリアルタイムで生成されており、Amazon Bedrock が「自然言語 → ROS コマンド」に変換している様子がわかります。

ユースケース セキュリティ監視ロボットを自然言語で操作

左側のスライドには『Interactive Security Surveillance Robot Use Case』と書かれており、想定ユースケースは「インタラクティブなセキュリティ監視ロボット」のようです。

  • ロボットが施設内を巡回
  • カメラで人や特定の行動を検知
  • オペレーターは「自然言語で指示を出すだけ」

このシチューションで、
「右に曲がって、電話している人を探して」
「このエリアを四角形にパトロールして」
といった曖昧さを含んだ指示を LLM が解釈し、具体的な ROS コマンドとパラメータに落とし込んでくれるデモになっていました。

ロボット制御の専門知識がなくても『言葉でロボットを操れる』ことが、このデモの肝になっています。

Bedrock+サーバレス+IoT Core のシンプル構成

ブースではラミネートされたアーキテクチャ図も見せてくれました。

そこから読み取れた構成を整理すると、ざっくり次のような流れです。

  1. re:Invent 会場からブラウザで Web アプリにアクセス
  2. Amazon Cognito で認証
  3. Amazon API Gateway 経由で AWS Lambda を呼び出し
  4. Lambda が入力コマンドを Amazon Bedrock に渡して解釈させる 『人間の自然文 → ロボット用コマンド』への変換
  5. コマンドやロボットの状態は Amazon DynamoDB で管理(State management)
  6. 別の Lambda が Amazon IoT Core を通じてロボットへ MQTT で指示を送信

図の下部には『Converts human commands to robot commands』と説明があり、Bedrock が「自然言語コンパイラ」の役割を担っていることが強調されていました。

インフラ的はいかのようです。

  • フロント:Browser + Amazon Cognito + Amazon API Gateway
  • サーバレス:AWS Lambda(ビジネスロジック・Bedrock 呼び出し・ロボット制御)
  • データ:Amazon DynamoDB(状態管理)
  • デバイス連携:Amazon IoT Core(MQTT)
  • 生成 AI:Amazon Bedrock

AWS らしいオーソドックスかつ拡張しやすい構成になっています。
でもお話し伺うと、AWS IoT Core のところはかなり作り込まれているとのことです。

興味を持ったポイント

デモを見ながら、個人的に面白いと思ったポイントを整理します。

『ROS の知識』と『現場の言葉』のギャップを埋めてくれる

ロボットを動かすには、本来は ROS や各種ミドルウェアの知識が必要です。
しかし現場でロボットを使いたい人(警備員・オペレーターなど)が、全員 ROS のトピック名や座標系を理解しているとは限りません。

このデモでは以下のステークホルダー と 役割 を考えました。

  • 現場の人
    • 「人が歩いているエリアを一周して確認して」と自然な言葉で指示
  • システム側
    • Bedrock がその意図を解釈し、「速度」「回転角」「停止条件」などを含んだ ROS コマンドに変換

生成 AI が「現場の言葉」と「ロボット制御の世界」を橋渡ししているのが印象的でした。

セーフティ機能も UI レベルで組み込まれている

画面には『EMERGENCY STOP』ボタンも用意されていました。
生成 AI による自律的な動作は便利な一方で、「万が一変なコマンドを出してしまったときに止められるか?」は現場ではとても重要です。

  • AI がロボットを動かす
  • でも、最終的な責任は人間が持つ
  • そのための UI と制御フローを最初から設計に入れておく

この考え方は、エンタープライズ向けの導入にもそのまま応用できそうです。

エンタープライズへの応用アイデア

このデモはあくまで「監視ロボット」がテーマですが、構成そのものはかなり汎用的なので、いろいろな応用が想像できます。

  • 工場・倉庫の自律走行ロボット
    • 「この棚の前まで荷物を取りに行って」
    • 「今日は 5 番ラインの周りだけ重点的に巡回して」など
  • インフラ・設備点検ロボット
    • 「3 階の電気室の温度を測って、前回より 5 度以上高ければ写真を撮って報告」
  • 商業施設の案内ロボット
    • 「エレベーター横までお客様を案内して、それから 1 階のフロアマップを表示」

共通しているとおもった箇所は以下です。

  • 現場にいる人は「業務の言葉」で指示を出すだけ
  • 生成 AI が、その裏側の複雑な制御や手順を肩代わりする

「人間が全部マニュアル操作するロボット」から、 「AI が翻訳して動かしてくれるロボット」へのシフトを、わかりやすく体感できるデモでした。

まとめ

『Command a Robot with Amazon Bedrock』ブースは、以下が印象的でした。

  • 自然言語 → ROS コマンドの変換という分かりやすいテーマ
  • Bedrock / Lambda / DynamoDB / IoT Core という実践的な構成
  • かわいい見た目(ピンクの風船)とガチな中身のギャップ

AWS re:Invent では生成 AI の話題がどうしても「テキストやドキュメント」に偏りがちですが、 このブースは「物理世界のロボット」と組み合わせた事例として、 自分たちのお客様への応用をイメージしやすい内容だったと思います。

今後、社内検証や PoC のネタとしても面白そうなので、Bedrock+IoT の組み合わせはぜひ検討してみたいです。

現場からは以上です。