【re:Invent 2023】Amazon Bedrockで使えるモデルが増えました!Dr Swami Sivasubramanian Keynoteで発表されたBedrock関連のアップデート

記事タイトルとURLをコピーする

サーバーワークスの村上です。

現地11月28日に行われたAdam Selipsky Keynoteでは、Knowledge base for Amazon BedrockのGAなどが発表されましたが、発表の中で「明日のDr Swami のKeynoteもお楽しみに」という発言がありました。

「これは明日が本番だな...」と構えていたわけですが、予想どおり多くのアップデートがありました。

このブログではアップデートの内容をざっと紹介させていただきます。

まとめ:Amazon Bedrockで使えるモデルたち

モデル タイプ プロバイダ
Jurassic-2 Ultra Text AI21 Labs
Jurassic-2 Mid Text AI21 Labs
Titan Embeddings G1 - Text Embedding Amazon
Titan Text G1 - Lite Text Amazon
Titan Text G1 - Express Text Amazon
Titan Image Generator G1(プレビュー) Image Amazon
Titan Multimodal Embeddings G1 Embedding Amazon
Claude Text Anthropic
Claude Instant Text Anthropic
Command Text Cohere
Command Light Text Cohere
Embed English Embedding Cohere
Embed Multilingual Embedding Cohere
Llama 2 Chat 13B Text Meta
Llama 2 Chat 70B Text Meta
Llama 2 13B Text Meta
Llama 2 70B Text Meta
SDXL 0.8 Image Stability AI
SDXL 1.0 Image Stability AI

AnthropicのClaude 2.1が利用可能に

11月21日発表されたばかりのClaude 2.1がAmazon Bedrockでも利用可能になりました。

www.anthropic.com

Claude 2.1の特徴

  • 200kトークンをサポート(Claude 2は100kトークン)
    • これは約 150,000 ワードまたは 500 ページを超えるドキュメントに相当(英語の場合)
  • ハルシネーションの減少
    • Claude 2と比較してハルシネーションが2倍減少
  • function calling と workflow orchestration(限定プレビュー)
    • プライベートなデータベースやウェブ検索した結果を回答させることができる

プレイグラウンドで簡単にモデルを比較

私が気付いていなかったのですが、プレイグラウンドにcompare modeという機能がありました。ここで以下のようにモデルの出力を簡単に比較できます。

Claude 2.1とClaude 2の比較

なんかClaude 2.1の回答の方がいい感じに見えるのは私だけでしょうか。

Meta Llama 2 70Bが利用可能に

Meta社のLlama 2 70BがAmazon Bedrockで利用可能になりました。

aws.amazon.com

例によって日本で人気のマンガを聞いてみます。Claudeに比べて日本語が少し苦手な印象です。

Stable Diffusion XL 1.0が利用可能に

画像生成のモデルであるStable Diffusion XL 1.0がAmazon Bedrockで利用可能になりました。

aws.amazon.com

これまではAmazon SageMaker JumpStartでしか使えませんでしたが、今後はAmazon Bedrockでも使えます。使ってみたブログを過去に書いていますのでご参照ください。

blog.serverworks.co.jp

Titan Image Generator G1のプレビュー利用開始

こちらも画像生成の用途で利用できるモデルです。

英語のテキストを入力するか、基となる画像をアップロードすることで画像を生成できます。

「AWS re:Invent」と入力して生成された画像

生成された画像には目に見えない透かしが入っており、AIによって生成された画像だと判別できるようになっているとのことです。

Titan Multimodal Embeddings G1が利用可能に

マルチモーダルとは、複数種類のデータを組み合わせて処理する機能を指します。

Titan Multimodal Embeddings G1ではテキストと画像の2つを入力して、埋め込み表現(ベクトル)に変換することができます。

これによりテキストと画像からなる情報をベクトルに変換できるため、テキストから画像を検索する、画像から画像を検索するなど、より柔軟な検索体験を提供することができます。

他にも多くの新機能が

Keynoteの内容としては他にも多くの発表がありました。個人的に注目したいアップデートを挙げておきます。

Amazon Bedrockで使えるモデルが増えたこと、ベクトルデータベースの選択肢が増えたこと、が個人的に刺さりました!

他のre:Invent 2023関連のブログはこちらから

blog.serverworks.co.jp

村上博哉 (執筆記事の一覧)

2020年4月入社。機械学習が好きです。記事へのご意見など:hiroya.murakami@serverworks.co.jp