yagibrary

あだ名のやぎと図書館のlibraryを組み合わせてyagibraryです。本から学んだことをみなさんに紹介します。

【論文和訳】Tyna Eloundou, Sam Manning, Pamela Mishkin, Daniel Rock【GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models】1 Introduction1

arxiv.org

目次

要旨

Generative Pre-trained Transformer (GPT)モデルや関連技術が米国の労働市場に与える潜在的な影響について調査する。新しい基準を使って、人間の専門知識とGPT-4の分類を取り入れ、GPTの能力との対応関係から職業を評価する。その結果、米国の労働者の約8割がGPTの導入により、少なくとも10%の業務に影響を受ける可能性があり、約19%の労働者は少なくとも50%の業務に影響を受ける可能性があることがわかった。その影響はあらゆる賃金水準に及び、高収入の仕事ほど、より大きな影響を受ける可能性がある。注目すべきは、その影響が最近の生産性上昇率が高い産業に限定されていないことである。我々は、Generative Pre-trained Transformersが汎用技術(GPT)の特徴を示すと結論付け、これらのモデルが経済的、社会的、政策的に重要な意味を持つことを示唆した。

1 導入

図1に示すように、近年、生成AIや大規模言語モデル(LLM)の分野では、数年、数カ月、数週間の間に目覚ましい進歩が見られる。世間ではLLMといえば、Generative Pre-trained Transformer(GPT)の様々な反復を連想することが多いが、LLMは様々なアーキテクチャを用いて訓練することができ、トランスフォーマーベースのモデルに限定されない(Devlin et al, 2019)。LLMは、アセンブリ言語、タンパク質配列、チェスゲームなど、様々な形式の連続データを処理・生成することができ、自然言語アプリケーションだけにとどまらない広がりを見せている。この論文では、LLMとGPTを同じ意味で使い、ChatGPTやOpenAI Playgroundで利用できるGPTファミリーのモデル(ラベル付け時点ではGPT-3.5ファミリーを含むがGPT-4ファミリーは含まない)と同様に考えるべきと規定した。テキストやコードを生成するGPTを対象とし、画像や音声などの様式を含む「ジェネレーティブAI」という用語を使用している。


しかし、私たちの研究は、これらのモデルだけの進歩よりも、これらのモデルの周りで開発された補完的な技術の幅、規模、能力を見ることに動機づけられている。補完的な技術の役割はまだわからないが、LLMのインパクトを最大化するには、より大きなシステムと統合することが必要であるようだ(Bresnahan, 2019; Agrawal et al, 2021)。ここでは、LLMの生成能力に焦点を当てますが、LLMを他のタスクに使用することで、新しいタイプのソフトウェアや機械通信が可能になるかもしれない。例えば、カスタム検索アプリケーションの構築を可能にする埋め込みや、何が生成的か否かの区別をどこにつけるかが不明確な場合がある要約や分類などのタスクである。