GPT(Generative Pre-trained Transforme)

1.概要

 OpenAI社が開発した大規模言語モデル
   AIによって大量のデータを学習し
   文章生成や言語理解の能力をもち、
   予測や推測ができる次世代型の言語モデル

 会話形式で質問に答え、画像や音楽の作成が可能
   質疑応答ボット、テキストの要約、コンテンツの生成等に活かされる

2.変遷

 GPT-1
   1億1,700万ものパラメータをもつ初期モデル

 GPT-2
   多様なタスクに対応できるよう、汎用的な言語モデルを目指し開発

 GPT-3
   さらに大量のデータを学習させ、精度の向上を図る

 GPT-3.5
   パラメータが約2倍に増える

 GPT-4
   テキスト情報だけでなく、画像の入力が可能になる

3.活用事例

 テキストの作成・変換
   目的にあった文章を作成する、文章を要約するなどが可能
     メールの文面を作成できる、返信も可能

 プログラミング言語を用いたソースコードの記述
   ソースコードの生成、コーディングチェックも可能
     言語やプログラムの条件を指定するだけで、コードを生成する
     コードのエラー修正も可能

 データの収集・分析
   膨大なデータの収集や分析作業も可能
     新しい市場に参入する際に、情報を収集し、分析する

 多言語翻訳
   さまざまな言語の翻訳が可能
     GPTを搭載した翻訳ソフトを活用する

 音声アシスタント
   音声読みあげや音声での応答が可能
     GPTが搭載された音声アシスタントを活用する

4.仕組みと最新技術

 Transformer
   人間の脳の構造と働きをモデルにした「ニューラルネットワークモデル」
     処理のはやさ、精度と汎用性の高さから現在のAIの進化に欠かせない

   Transformerの登場により、従来モデルができなかった、
     同時に複数のタスクを並行処理することが可能になる

 EncoderとDecoder
   入力された文章を認識して結果を出力する際に、
   Encoderが一度処理しやすい形に変換してから、Decoderで出力する

   GPTでは、Transformerの登場で
     Encoder部分が並列処理でき、処理速度が大幅に向上する

 Attention
   どの単語が重要か、どこに注目すべきかを教える仕組み
     Attentionの仕組みによって必要な情報だけを処理できるようになり、
     処理性能が大幅に向上した

5.注意点

 生成された結果を確認する必要がある
   必ず生成結果を精査する必要がある
   精査できないモノを処理依頼してはいけない

 セキュリティの面で課題
   扱う情報は誰に公開または非公開にするかの判断ができない
   原則指示しても、どこまで指示を守るかの判断はできない

 うまく活用するには習熟する必要がある
   簡単に結果を出すので、内容を吟味できる人材が必要になる