今朝、サンフランシスコで開催された OpenAI Dev Day 2023 での発表内容をまとめました。

発表された6つのテーマ

今回のアナウンスメントは主に6つのテーマで発表されていました。

  • コンテキストの長さの拡張(Context length)
  • より多くのコントロール(More Control)
  • より多くの知識(Better Knowledge)
  • 新しいモダリティ(New modalities)
  • カスタマイズ性(Customization)
  • より実行上限(Higher rate limits)+価格改定

GPT-4 Turboの導入

より高い能力を持ち、2023年4月までの世界の出来事に関する知識を有しています。128kのコンテキストウィンドウをサポートし、一度のプロンプトで300ページ以上のテキストに相当する情報を処理することができます。さらに、パフォーマンスが最適化されており、入力トークンについてはGPT-4の3倍安い価格、出力トークンについては2倍安い価格で提供されます。

新しいAssistants API

開発者が自分のアシスティブAIアプリを構築することを容易にするためのAPIです。これにより、モデルやツールを呼び出す目標を持ったアプリケーションを作成できます。

プラットフォームのマルチモーダル機能

視覚機能、画像生成(DALL·E 3)、テキストから音声へ(TTS)などの新しい機能が追加されました。

関数呼び出し(Function calling)の改善

アプリケーションの関数や外部APIをモデルに説明し、モデルがこれらの関数を呼び出すための引数を含むJSONオブジェクトを出力するように選択する機能が向上しました。

指示に従う機能とJSONモードの改善

GPT-4 Turboは、特定のフォーマットを生成するような指示に従うタスクにおいて、以前のモデルよりも優れたパフォーマンスを発揮します。また、新しいJSONモードをサポートし、モデルが有効なJSONを応答するようにします。

再現可能な出力とログ確率

新しいシードパラメータにより、モデルはほとんどの場合、一貫したCompletionを返すようになります。また、GPT-4 TurboとGPT-3.5 Turboが生成する最も可能性の高い出力トークンのログ確率を返す機能も導入されます。

GPT-3.5 Turboのアップデート

16Kのコンテキストウィンドウをデフォルトでサポートする新しいバージョンがリリースされました。この新しい3.5 Turboは、JSON、XML、YAMLの生成などのフォーマットに従うタスクで38%の改善が見られます。

Assistants API、Retrieval、Code Interpreter

開発者が高品質なAIアプリを構築するための新しい機能を提供します。これには、Pythonコードをサンドボックス環境で記述・実行するCode Interpreterや、ユーザーが提供するドキュメントからの情報を取得するRetrievalなどが含まれます。

APIの新しいモダリティ

GPT-4 Turboは、画像を入力として受け入れることができ、キャプションの生成や実世界の画像の詳細な分析、図を含むドキュメントの読み取りなどのユースケースを可能にします。例えばこのBe my eye アプリは目の見えない方向けに、いま目の前にあるものが何かを細かく説明してくれ、このAPIが利用されています。

テキストから音声へ(TTS)

開発者は、新しいTTS APIを通じて、テキストから人間のような品質の音声を生成することができます。音声は6種類から選べます。

モデルのカスタマイズ

GPT-4のファインチューニングに対する実験的アクセスと、カスタムモデルプログラムが導入されました。

価格の低下とレートリミットの増加

GPT-4 Turboの入力トークンはGPT-4の3倍安く、出力トークンは2倍安い価格で提供されます。また、GPT-4の顧客向けのトークン毎分のリミットが倍増しました。

著作権シールド

OpenAIは、著作権侵害の申し立てに対して顧客を保護し、発生した費用を支払う新しい取り組みを導入しました。

Whisper v3と一貫性デコーダ

パフォーマンスが向上した、オープンソースの 言語横断的な 自動音声認識モデルの次バージョンである、Whisper large-v3がリリースされました。また、Stable Diffusion VAEデコーダの代わりとなるConsistency Decoderもオープンソース化されました。

Microsoft CEO の Satya との対談

Sam)マイクロソフトはこのパートナーシップをどう思っているのか?

Satya)OpenAIの事が大好きです。我々にとって素晴らしいことで、当初SamがAzureのクレジットを少しくれないか?と声をかけてもらってから今日まで共にしてきました。マジカルなものを(OpenAIが)作りました。このパートナーシップにおいて2つの事が言えます。まず、マイクロソフトは30年以上インフラストラクチャーを提供してきましたが、今回のようなワークロードは今までと抜本的に違い、同期的で、膨大で、並列で行われるものなので、このパートナーシップは電力の供給からデータセンターの確保、ラック、ネットワークなどまですべて共に行ったことで、Azureそのものの考え方まで変わりました。なので、我々としては最適なシステムを提供することで、OpenAIが最適なモデルを構築し、開発者に公開するということだと思います。

そしてもう1点んが我々自身も開発者で、製品を作っています。GitHub Copilot で最初見た時のように基盤モデルの考えにより抜本的に変わりました。ですので、我々としてもOpenAIをベースにGitHub CopilotやそのほかのCopilotを開発者として作っていきたいと考えています。では、開発者にとってそれはどういうことを意味するのかということですが、Microsoftはプラットフォームの会社でもあり、パートナー会社でもあり、開発者向けの会社でもあります。なのでGitHub Copilotを全員にリリースできたことは光栄だと思っています。そしてOpenAI社のAPIサポートにより、我々は最適なAzure のインフラストラクチャーを提供できると考えています。

Sam)今後の我々とのパートナーシップ、AIの未来はどのように思ってますか?

Satya)いくつかありますが、1つはOpenAIがより飛躍的にモデルを作っていくにあたり、我々としても最適なシステムをモデルの学習のために提供するだけでなく、より多くの演算能力を提供していきたいと思います。そして2つ目が我々のミッションである、すべての人々をエンパワメントするというミッションですが、AIはそのエンパワメントを行うことによって、はじめて意味があるのだと思っています。前段で再生していた様々な人々の活用例は素晴らしいものです。ですので我々としてもこのAIがすべての人に提供されていく世界というのが重要だと思います。そして3つ目に安全性です。安全性は最後に考えるものではなく、作る過程の一部として考えなければいけません。それにおいてもOpenAIと一緒に提供していきたいと考えています。

GPTs の発表

日常生活、特定のタスク、職場、または家庭でより役立つようにカスタマイズされたChatGPTのバージョンを作成できる新しい方法、「GPTs」を発表しました。GPTsは、ボードゲームのルールを学んだり、子供たちに数学を教えたり、ステッカーをデザインしたりするのに役立ちます。

簡単な作成プロセス

コーディングの知識は不要で、誰でも簡単に自分のGPTを作成できます。これは、会話を始め、指示と追加知識を与え、ウェブ検索、画像作成、データ分析などの機能を選択することで行えます。chat.openai.com/createで試すことができます。

GPTストアの導入

自分のGPTを作成し、公開することができます。

今月後半には、GPTストアがローンチされ、検証済みのビルダーによる作品が特集されます。ストアにあるGPTは検索可能で、リーダーボードを上がる可能性があります。また、今後数ヶ月で、GPTの使用者数に基づいて収益を得ることもできるようになります。

プライバシーと安全性

ChatGPTとのチャットはビルダーと共有されず、GPTがサードパーティのAPIを使用する場合は、そのAPIにデータを送信するかどうかを選択できます。ビルダーは、自分のGPTにアクションや知識をカスタマイズする際に、そのGPTとのユーザーチャットを使用してモデルを改善し、トレーニングするかどうかを選択できます。

開発者向けのリアルワールド接続

ビルトイン機能を使用するだけでなく、一つ以上のAPIをGPTに利用可能にすることでカスタムアクションを定義できます。アクションを使用すると、GPTは外部データを統合したり、実世界と対話したりすることができます。

エンタープライズ顧客向けのGPT

ChatGPT Enterpriseを立ち上げてから、初期の顧客はビジネスに合わせたさらなるカスタマイズを望んでいました。GPTsは、特定のユースケース、部門、または独自のデータセットに合わせたChatGPTのバージョンを作成することで、この要求に応えます。

ChatGPT Plusの改善

ChatGPT Plusには、2023年4月までの最新情報が含まれています。また、モデルピッカーの使用が煩雑であるというフィードバックを受けて、今日からモデル間を行き来することなく、必要なすべての機能にアクセスできます。