皆さん、こんにちは!25卒新入社員のYiです。 先日開催されたAWS Summit Tokyo 2025に初めて参加してきました!
セッションやブースで学んだこと、感じたことをレポートにまとめました。

1. まずはコーヒーで一息
サミットを全力で楽しむために、まずは美味しいコーヒーで気合を入れました。
会場内にある「Serverlesspresso」ブースでは、なんと無料でコーヒーをいただけます。
もちろん、名前の通りに「Serverlesspresso」はサーバーレスアーキテクチャーで構成されています。
ブースのモニターに表示されるQRコードを読み取って注文する仕組みなのですが、一度に注文できる人数に上限があるため、なかなかのスピード勝負。
結果は…見事、一度目の挑戦でコーヒーをゲットできました!

2. 印象に残ったブースを巡る
2.1 AWSを支えるハードウェア
普段クラウドサービスを利用していると、その裏側で動いているハードウェアがどうなっているのか、常に気になっていました。
今回のサミットでは、そんなAWSの物理ハードウェアが展示されており、真っ先に見学に行きました。
Nitro Card と Outposts
まず、AWSに欠かせないEC2インスタンスの心臓部であるNitro Hypervisorを支える「Nitro Card」です。

従来のXen HypervisorからNitro Hypervisorに移行したことで、CPUのオーバーヘッドが劇的に削減されたと聞いていましたが、その中核を担うのがこのカードです。
実物は世代を重ねるごとに少しずつ大きくなっているそうですが、それは機能が向上している証拠だそうです(笑)
このブースの隣には、AWS独自のCPUである「Graviton」や、オンプレミス環境にAWSのインフラを拡張する「Outposts」の実機も展示されていました。
Outpostsは、電源供給や排熱まで精密に設計された、標準化ラックに収められたサーバーそのもので、物理的な存在感に圧倒されました。

2.2 EKS Auto Mode:Kubernetes運用のさらなる自動化へ
Kubernetesは、コンテナ化されたアプリケーションのデプロイ、スケーリング、管理を自動化する強力なコンテナオーケストレーション技術です。
特に、大規模で複雑なコンテナ環境を持つ組織にとっては不可欠なサービスとなっています。
(最近ではCI/CDと組み合わせて、無停止デプロイやGitOpsを実現するためにも頻繁に利用されているようです)
しかし、Kubernetesは非常に多機能で複雑な構造を持つプラットフォームでもあり、学習コストが高いことも事実です。
すべての組織がKubernetesを習熟するのは簡単なことではありません。
そうした課題に対し、AWSの既存のKubernetesサービスであるEKSは、コントロールプレーンの運用をマネージドサービスとして提供するという利点がありました。

しかし、サービス開発にさらに集中したいお客様にとっては、より高いレベルのマネージドサービスが求められます。
そのようなお客様向けに開発されたのが「EKS Auto Mode」です。
EKS Auto Modeは、従来のサービスに比べてAWSが管理する範囲が大幅に拡大されています。
コントロールプレーンだけでなく、ワーカーノードのプロビジョニングや管理までAWSが担当してくれるため、ユーザーはアプリケーションのことだけを考えればよくなります。

EKS Auto Modeの主なメリット・デメリット
-メリット
運用負荷の軽減: ワーカーノードの管理が不要になり、インフラ運用から解放されます。
コスト最適化: ワーカーノードの自動スケーリングにより、必要な分だけのリソースを効率的に利用でき、無駄なコストを削減できます。
セキュリティ向上: ノードのパッチ適用や更新をAWSが自動で行うため、セキュリティが強化されます。
-デメリット
柔軟性の低下: ノードのインスタンスタイプなどを細かくカスタマイズしたい場合には不向きな場合があります。
一部機能の制限: 特殊な設定やDaemonSetの利用に一部制限がかかる可能性があります。
2.3 あらゆる分野とAIの融合
やはり、今回のサミットで最もホットなテーマの一つはAIだったと思います。
私が立ち寄ったほぼすべてのブースで、何らかの形でAI関連の要素に触れることができました。
スマート生産とAWS
あるブースでは、ロボットアームを導入している工場でのAI活用事例が紹介されていました。

システム全体としては、ロボットから計測される数値を標準的なメトリクスに変換し、「AWS IoT Greengrass」で収集・可視化するというものです。
このシステムの面白い点は、エラー発生時の対応に生成AIを組み込んでいることでした。
通常、エラーが発生すると、膨大なマニュアルから該当箇所を探して対処しますが、作業者の習熟度によって対応速度に差が出てしまいます。
そこで、このシステムではAIがナレッジベース(社内マニュアルなど)からエラーに関連する情報を即座に探し出して提示してくれます。

さらに、対処に必要な部品の在庫を確認し、設定した数を下回っていれば自動で発注まで行う機能も実装されていました。
このように、あらゆる分野でAI導入の試みが行われていることを肌で感じ、非常に良い刺激を受けました。
そして、これらのLLM(大規模言語モデル)の多くはクラウド上で提供されています。
モデルの学習はもちろん、実際にモデルをデプロイして推論を実行するのもクラウドが主流です。
ソフトウェアの進化も重要ですが、そのソフトウェアに合わせて最適化されたハードウェアを提供することの重要性を改めて認識しました。
AWS Trainium、AIのためのハードウェア
その需要に応えるソリューションとして、オープニングセッションでも言及された「AWS Trainium」は非常に印象的でした。

汎用的なLLMは迅速にAIを導入できるメリットがありますが、特定のビジネス課題に対しては、より専門的なLLMが必要になる場合があります。
自社の内部データや業界データを集中的に学習させ、高い精度と関連性を確保することがビジネスの競争力に直結します。
同時に、商用モデルはAPIの呼び出し回数に応じて課金されるため、大量のAPIコールを必要とするアプリケーションではコストが膨大になる可能性があります。
このような「自社専用のLLMを効率的にトレーニングしたい」という組織のためにAWSが提供しているのが、学習用の「Trainium」と推論用の「Inferentia」です。
今回特に注目されていた「Trainium2」は、第一世代のチップから性能が大幅に向上しています。
さらに、「EC2 UltraClusters」を通じて最大10万個のチップをクラスターとして結合し、超大規模なモデルのトレーニングが可能とのこと。
これにより、企業は物理的なスーパーコンピュータを保有することなく、世界最先端のLLMを自社で開発・デプロイできる時代になったのだと実感しました。
まとめ
今回が初めての AWS サミット参加でしたが、 私自身の知識も、効率的な情報の収集方法もまだ未熟で、AWS サミットを100%活用しきれなかった、という悔しさも少し残っています。
しかし、それ以上に、AWSというプラットフォームに対する視野が大きく広がり、「実際にクラウドがどのような分野で、どのような方法で活用されているのか」について、多くの知見を得ることができました。
来年はさらに多くのことを学び、準備を重ねて、もっとこのイベントを楽しみたいと思います!