GPT-3
GPT-3 (ジーピーティースリー、Generative Pre-trained Transformer 3 )は、2020年に発表された自己回帰 型の言語モデル で、ディープラーニング (深層学習)により人間のようなテキスト(文章)を生成する。プロンプト (命令)として最初のテキストを与えると、そのプロンプトを継続するテキストを生成する。
アーキテクチャは、デコーダのみのTransformerネットワーク で、2048トークン 長のコンテキストと、1750億個のパラメータ という前例のないサイズを持ち、保存するのに800 GBを必要とした。このモデルは、生成的な事前学習を用いて訓練され、以前のトークンに基づいて次のトークンが何であるかを予測するように訓練をされる。このモデルは、多くのタスクに対し、強力なゼロショット学習 (英語版 ) と少数ショット学習 を実証した[ 2] 。著者らは、自然言語処理(NLP)における言語理解性能が、GPT-n の『ラベル付与されていないテキストの多様なコーパスに対する言語モデルの生成的事前学習と、それに続く各特定タスクにおける識別的 な微調整』のプロセスによって向上したことを説明した。これにより、人間による監督 や、時間のかかる手作業でのラベル付けが不要になった[ 2] 。
GPT-3は、サンフランシスコの人工知能 研究所OpenAI が開発したGPT-2 の後継で、GPTシリーズの第3世代の言語予測モデルである[ 3] 。2020年5月に公開され、2020年7月にベータテストが実施されたGPT-3は[ 4] 、事前学習言語表現による自然言語処理 (NLP)システムにおけるトレンドの一翼を担った[ 1] 。
GPT-3が生成するテキストの品質は、それが人間によって書かれたものであるかどうかを判断することは困難なほど高く、利点と危険性の両面があるとされる[ 5] 。GPT-3を紹介する原論文は、2020年5月28日、31人のOpenAIの研究者と技術者が発表した。彼らは論文の中で、GPT-3の潜在的な危険性を警告し、その危険性を軽減するための研究を呼びかけた[ 1] :34 。オーストラリアの哲学者デイヴィッド・チャーマーズ は、GPT-3を『これまでに作られた最も興味深く、重要なAIシステムの一つ』と評した[ 6] 。2022年4月のニューヨーク・タイムズ 紙では、GPT-3の能力について、人間と同等の流暢さで独自の散文を書くことができると論評している[ 7] 。
2020年9月22日、マイクロソフト は、GPT-3の『独占的な利用』を許諾したと発表した。他の企業が公開API を使用して出力を受け取ることは引き続き可能だが、GPT-3の基礎モデルにアクセスできるのはマイクロソフトのみである[ 8] 。
背景
エコノミスト 紙によると、アルゴリズムの改良、強力なコンピューター、デジタル化されたデータの増加が、機械学習 の革命を促進し、2010年代の新しい技術によって、言語の操作を含む『タスクの急速な改善』をもたらしたという[ 9] 。ソフトウェアモデルは、『脳の神経アーキテクチャに大まかに基づいた構造』で、数千から数百万の事例を使用して学習するように訓練される[ 9] 。自然言語処理 (NLP)で使用されるアーキテクチャの1つは、2017年に初めて登場した深層学習モデルTransformer に基づくニューラルネットワークである。GPT-n モデルは、Transformer に基づく深層学習 ニューラルネットワーク 型のアーキテクチャである[ 10] 。入力されたテキストを処理 、マイニング 、整理・結合し、対比し、質問 に正しく答えることができるNLPシステムは多数存在する[ 11] 。2018年6月11日、OpenAIの研究者と技術者は、データセット を介して膨大で多様なテキストのコーパス を用いて事前学習できる生成モデル (言語モデル、人工知能システム)に関する、彼らが生成的事前学習 (generative pre-training、GP)と呼ぶプロセスの原論文を発表した[ 2] 。著者らは、GPT-n で『ラベル付けされていない多様なテキストのコーパスを用いて言語モデルを生成的に事前学習し、その後、特定のタスクごとに識別的 に微調整する』プロセスを通じて、自然言語処理(NLP)における言語理解の性能が向上したことを説明した。これにより、人間による監督 や、時間のかかる手作業によるラベル付けが不要になった[ 2] 。
2020年2月、マイクロソフトは、『170億個のパラメータを持つ、これまでに発表された最大の言語モデル』と主張するTuring Natural Language Generation(T-NLG)を発表した[ 12] 。これは、テキストの要約 や質問への回答 を含む、さまざまタスクで、他のどの言語モデルよりも優れた性能を発揮した。
訓練と能力
GPT-3によって書かれた
教育学 に関する学生の小論の例
「学習スタイル」という概念は、学習スタイルが形成される過程を説明できない点で問題がある。ある学生は、特定の経験をしたために、特定の学習スタイルを身につけるかもしれない。別の学生は、自分の学習ニーズにあまり適していない学習環境に適応しようとすることで、特定の学習スタイルを習得するかもしれない。しかし最終的には、学習スタイルと環境および個人的要因との相互作用を理解し、それらがどのように私たちの学習方法や経験する学習の種類を形成するかを理解する必要がある。
– 著者: マイク・シャープルズ[ 13]
2020年5月28日、OpenAIの31人の技術者と研究者のグループによるarXiv の査読前論文で、第3世代の『最先端の言語モデル』であるGPT-3の開発について説明された[ 1] [ 5] 。チームは、GPT-3の容量をその前身のGPT-2[ 14] よりも2桁以上増やし、GPT-3をこれまでで最大の非スパース言語モデルにした。(補足: スパースモデルでは、パラメータ (英語版 ) の多くが定数に設定されているため、パラメータの総数が多くても、意味のある情報は少なくなる[ 1] :14 [ 3] 。)GPT-3は構造的に前身モデルと類似しているので、精度が向上したのは容量とパラメータ数の増加によると考えられる[ 15] 。GPT-3の容量は、当時知られていた2番目に大きなマイクロソフトのTuring NLGの10倍になる[ 5] 。
モデル
GPT-3のモデルアーキテクチャはGPT-2モデル のマイナーチェンジ版である[ 16] 。アーキテクチャ上の変更点は以下の通り:
アーキテクチャはほぼ同一であるが、GPT-3はGPT-2より大きなモデルとなっている。モデル上の変更点は以下の通り:
モデルパラメータサイズ: 1750億(dense等価で約10倍)[ 18]
その他
データセット
GPT-3の重み付き事前学習データセットの60%は、Common Crawl のフィルタ処理された版から取得されたもので、4,100億バイト対符号化 トークンで構成される[ 1] :9 。その他の情報源としては、WebText2からの190億トークン(加重合計の22%)、Books1からの120億トークン(8%)、Books2からの550億トークン(8%)、Wikipediaからの30億トークン(3%)がある[ 1] :9 。
GPT-3学習データ
データセット
トークン数
学習データ中の割合
Common Crawl
4100 億
60%
WebText2
190 億
22%
Books1
120 億
8%
Books2
550 億
8%
Wikipedia
30 億
3%
学習
能力
GPT-3は数千億個の単語で訓練されており、CSS、JSX、Pythonなどのプログラミング言語でコーディングすることも可能である[ 4] 。GPT-3の学習データはすべてを網羅しているため、個別の言語タスクのために訓練を追加する必要はない[ 4] 。この学習データにはときどき有害言語が含まれており、GPT-3は学習データを模倣した結果、有害言葉を発生することがある。ワシントン大学の研究によると、GPT-3は、同様の自然言語処理モデルであるGPT-2 やCTRLと同程度の毒性基準で有毒言語を生成することがわかった。OpenAIは、GPT-3が生成する有毒言語の量を制限するために、いくつかの戦略を実装した。その結果、GPT-3は、前身モデルであるGPT-1よりも有毒言語の生成が少なくなったものの、Wikipediaのデータのみで学習した言語モデルであるCTRL Wikiよりも有毒言語は生成が多く、毒性基準も高かった[ 19] 。
2020年6月11日、OpenAIは、ユーザーがこの新しい技術の『長所と限界を探る』ために、使いやすいGPT-3 API『機械学習ツールセット』へのアクセスを要求できることを発表した[ 20] [ 21] 。招待状には、このAPIは、通常の単一のユースケース ではなく、ほぼ「あらゆる英語のタスク」を完了できる汎用的な『テキスト入力、テキスト出力』型のインターフェースを備えていると説明されている[ 20] 。OpenAI GPT-3 APIの非公開の早期リリースにアクセスしたあるユーザーによると、GPT-3は、いくつかの簡単なプロンプトだけで『驚くほど意味の通ったテキスト』を書くことができ、『不気味なほど優秀』だったという[ 22] 。最初の実験では、米国の80名の被験者に、200語程度の短い記事が人間によって書かれたものか、GPT-3によって書かれたものかを判断するように求められた。その結果、被験者は52%の確率で正しく判断し、ランダムに推測するよりもわずかに優れていた[ 1] 。
2021年11月18日、OpenAIは、APIに無制限にアクセスできるように保護手段を実装したことを発表した[ 23] 。OpenAIは、開発者がOpenAIのコンテンツポリシーを順守するのに役立つコンテンツモデレーションツールを提供した[ 24] 。2022年1月27日、OpenAIは、InstructGPTと総称される最新のGPT-3言語モデルが、同社のAPI で使用されるデフォルトの言語モデルになることを発表した。OpenAIによると、InstructGPTは、より適切に指示に従うことで、よりユーザーの意図に沿ったコンテンツを生成し、でっち上げの事実を減らし、有害なコンテンツをいくらか少なくできるとされた[ 25] 。
GPT-3は、『人間の評価者が人間が書いた記事と区別するのが難しいニュース記事を生成できる[ 5] 』ため、GPT-3には『言語モデルの有益な応用と有害な応用の両方を進める可能性がある』と評される[ 1] :34 。2020年5月28日の論文で、研究者らは『GPT-3が潜在的にもつ有害作用』について詳細に説明した[ 5] 。それには『誤った情報、スパム (英語版 ) 、フィッシング 、法律や政府のプロセスの悪用 (英語版 ) 、不正な学術論文の作成 、ソーシャルエンジニアリングの口実 (英語版 ) 』が含まれている[ 1] 。著者らは、これらの危険性への注意を喚起し、リスクを軽減 するための研究を呼びかけた[ 1] [ 26] :34 。
GPT-3は、ゼロショット (英語版 ) 、少数ショット 、ワンショット (英語版 ) の学習を行うことができる[ 1] 。
2022年6月、Almira Osmanovic Thunströmは、GPT-3が自身に関する論文の主な著者であり、発表のために投稿し[ 27] 、査読を待っている間に事前公開されたと記した[ 28] 。
モデル
7種類のモデルがある[ 29] 。これらには GPT-3.5 と Codex は含まれない。
text-curie-001 - 2024年1月4日に提供終了[ 30]
text-babbage-001 - 2024年1月4日に提供終了[ 30]
text-ada-001 - 2024年1月4日に提供終了[ 30]
davinci - 2024年1月4日に提供終了し、davinci-002 に置き換わる[ 30]
curie - 2024年1月4日に提供終了し、curie-002 に置き換わる[ 30]
babbage - 2024年1月4日に提供終了し、babbage-002 に置き換わる[ 30]
ada - 2024年1月4日に提供終了し、ada-002 に置き換わる[ 30]
反応
応用
GPT-3、特にCodexモデル は、さざまざなコードエディタやIDEで使用できるコード補完および生成ソフトウェア「GitHub Copilot 」の基盤となっている[ 31] [ 32] 。
マイクロソフトの特定の製品では、従来の言語を公式なコンピュータコードに変換するために、GPT-3が使用されている[ 33] [ 34] 。
GPT-3は、CodexDB[ 35] で、SQL処理用のクエリ固有のコードを生成するために使用されている。
GPT-3は、Jason Rohrer による「Project December」というレトロなテーマのチャットボットプロジェクトで使用されている。このプロジェクトはオンラインでアクセス可能で、ユーザーはGPT-3の技術を使用してさまざまなAIと会話することができる[ 36] 。
ガーディアン 紙において、AIは人間に無害であるという記事を書くためにGPT-3が使用された。いくつかのアイデアを与えられ、8つの異なるエッセイを作成し、最終的に1つの記事に統合された[ 37] 。
テキストベースのアドベンチャーゲームを生成するAI Dungeon (英語版 ) でGPT-3が使用された。その後、OpenAIが生成コンテンツに関するポリシーを変更したため、競合するモデルに置き換えられた[ 38] [ 39] 。
スタートアップ企業のCopy.ai[ 40] 、Jasper.ai[ 41] 、TextCortex AI[ 42] およびHypotenuse AIによって[ 43] 、コピー (英語版 ) やその他のマーケティング資料の作成を支援するためにGPT-3が利用されている。
ドレクセル大学 による2022年の研究では、GPT-3ベースのシステムが、アルツハイマー病 の初期兆候のスクリーニング に使用できることが示唆された[ 44] [ 45] 。
論評
ニューヨーク・タイムズ 紙のレビューで、Farhad Manjoo は、コンピュータコード、詩、散文を生成するGPT-3の能力は、単に「驚くべき」「不気味」「謙虚」だけでなく『少しばかり恐ろしい』と述べている[ 46] 。
Daily Nous は、9人の哲学者によるGPT-3に関する一連の記事を紹介した[ 47] 。オーストラリアの哲学者David Chalmersは、GPT-3を『これまでに作られた中で最も興味深く、重要なAIシステムの1つ』と表現した[ 6] 。
WIRED は、GPT-3が『シリコンバレー 全体に悪寒を引き起こした』と述べた[ 48] 。
The National Law Review は、GPT-3は『より大きなプロセスにおける印象的な一歩』であり、OpenAIや他の企業は『より汎用的 な知能を目指す」取り組みを続けながら、『この力のすべてに有用な応用』を見つけていると述べている[ 49] 。
MITテクノロジーレビュー の記事で、共同執筆したディープラーニング評論家のGary Marcus は[ 50] 、GPT-3の『世界の理解はしばしば深刻にずれており、GPT-3の言うことは決して信用できない』と指摘した[ 51] 。著者らによると、GPT-3は、各単語の背後にある意味を理解せずに、単語間の関係をモデル化しているという。
Facebook AIラボの責任者であるJerome Pesentiは、GPT-3は『安全ではない』と述べ、ユダヤ人、女性、黒人、およびホロコースト について議論するよう求められたときに、システムが生成した性差別 、人種差別 、およびその他の偏見のある否定的な言葉を指摘した[ 52] 。
医療技術を専門とするフランスのスタートアップ企業のNablaは、OpenAI自身がそのような使用に対して警告を発していたにもかかわらず、GPT-3を医療用チャットボット としてテストした。予想通り、GPT-3にはいくつかの限界があった。たとえば、メンタルヘルスの問題についてGPT-3の応答をテストしていたとき、AIは模擬患者に自殺するよう勧めた[ 53] 。
ノーム・チョムスキー は、GPT-3の科学的価値について次のような懐疑的な見方を示した。『これは言語モデルではない。不可能な言語に対しても、実際の言語に対しても同様に機能する。したがって、もし言語モデルとして意図されてたものであるならば、通常の科学的基準によって反論される。(中略)おそらく、何らかの目的には有用かもしれないが、言語や認知一般については何も教えてくれないようだ』[ 54] 。
ルチアーノ・フロリディ とMassimo Chiriattiは、『良質で意味深い人工産物を安価に生産する』ことの危険性を強調した[ 55] 。
OpenAIのSam Altman自身は、彼が『GPT-3誇大広告』と呼ぶものを批判し、GPT-3には『深刻な弱点があり、時には非常に愚かな間違いを犯す。AIは世界を変えようとしているが、GPT-3はごく初期を垣間見るに過ぎない。』と認めている[ 56] 。
批判
GPT-3の構築者であるOpenAI は、もともと、2015年に非営利法人として設立された[ 57] 。2019年、OpenAIは、このモデルがフェイクニュース (虚偽報道)を永続させるという懸念を挙げて、それまでのオープンソースの慣習を破り、GPT-3の前身モデルを公開しなかった。OpenAIは最終的に、オリジナルなモデルの8%のサイズのGPT-2を公開した[ 58] 。同年、OpenAIは営利企業となるため再編成された[ 59] 。2020年、マイクロソフトは、OpenAIへ数十億ドルを投資し、マイクロソフトの製品とサービス向けにGPT-3の独占的ライセンスを取得したと発表した。この契約により、OpenAIは公開APIを提供し、ユーザーはGPT-3にテキストを送信してモデルの出力を受け取ることができるが、GPT-3のソースコードにアクセスできるのはマイクロソフトのみとなる[ 8] 。
GPT-3のような大規模な言語モデルは、Googleの一部のAI倫理研究者から、モデルの訓練と保存が環境に与える影響についての批判を受けており、2021年にTimnit Gebru とEmily M. Bender が共著した論文で詳述されている[ 60] 。
GPT-3やその他の言語ジェネレーターに基づく自動文章作成技術の使用が増加していることから[いつ? ] 、学問的誠実性に関する懸念が高まり[ 61] 、大学や学校が何をもって剽窃(ひょうせつ、盗作)などの学問的不正行為とみなすのかという問題が生じている[ 62] 。GPTは、12年間に6,000万ドメインから収集された著作権保護された記事、インターネット上の投稿、ウェブページ、書籍のコレクションであるCommon Crawlデータセットのデータを用いて構築された。TechCrunch によると、この学習データにはBBC、The New York Times 、Reddit 、オンライン書籍の全文などの著作物が含まれているという[ 63] 。OpenAIは、米国特許商標庁 (USPTO)からの「人工知能イノベーションの知的財産保護に関する2019年のコメント要請」に対する回答で、『現行法のもとでは、(GPTモデルなどの)AIシステムの訓練は公正利用 に合致する』と主張したが、『この点に関する適切な判例 がないことから、OpenAIや私たちのような他のAI開発者は、かなりの法的不確実性とコンプライアンス・コストに直面している』と述べている[ 64] 。
GPT-3.5
沿革
2022年3月15日、OpenAIは、GPT-3とCodex のAPIに、編集と挿入機能を持たせた新しいバージョンを「text-davinci-002」および「code-davinci-002」という名前で公開した[ 65] 。これらのモデルは、以前のバージョンよりも高性能であると説明され、2021年6月までのデータを用いて訓練された[ 66] 。
2022年11月28日、text-davinci-003を公開[ 67] 。
2022年11月30日、OpenAIはこれらのモデルを「GPT-3.5」シリーズに属すものとし[ 68] 、GPT-3.5シリーズのモデルを微調整したChatGPT をリリースした[ 69] 。
2023年6月13日、gpt-3.5-turbo-16k と関数呼び出し(function calling)を追加した[ 70] 。関数呼び出し(function calling)により、ChatGPT のプラグインのようなことが ChatGPT の外で実行できるようになった。
OpenAI は GPT-3.5 を GPT-3 に含めていない[ 71] 。GPT-3.5 の後継は GPT-4 。
モデル
5種類のモデルがある[ 72] 。
会話用
gpt-3.5-turbo - 使用可能な文脈が最長4096トークン
gpt-3.5-turbo-16k - 使用可能な文脈が最長16384トークン
後続の文章生成用
text-davinci-003 - 2024年1月4日に提供終了[ 30]
text-davinci-002 - 2024年1月4日に提供終了[ 30]
code-davinci-002 - プログラミング用
参照項目
脚注
^ a b c d e f g h i j k l m Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav et al. (Dec 2020). Larochelle, H.; Ranzato, M.; Hadsell, R. et al.. eds. “Language Models are Few-Shot Learners” . Advances in Neural Information Processing Systems (Curran Associates, Inc.) 33 : 1877–1901. https://proceedings.neurips.cc/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf .
^ a b c d “Improving Language Understanding by Generative Pre-Training ”. pp. 12 (June 11, 2018). July 31, 2020 閲覧。
^ a b Shead, Sam (July 23, 2020). “Why everyone is talking about the A.I. text generator released by an Elon Musk-backed lab” . CNBC . https://www.cnbc.com/2020/07/23/openai-gpt3-explainer.html July 31, 2020 閲覧。 Four preprints were released between May 28 and July 22, 2020.
^ a b c Bussler, Frederik (July 21, 2020). “Will GPT-3 Kill Coding? ”. Towards Data Science . August 1, 2020 閲覧。
^ a b c d e Sagar, Ram (June 3, 2020). “OpenAI Releases GPT-3, The Largest Model So Far” . Analytics India Magazine . https://analyticsindiamag.com/open-ai-gpt-3-language-model/ July 31, 2020 閲覧。 .
^ a b Chalmers, David (July 30, 2020). “GPT-3 and General Intelligence” . Daily Nous . https://dailynous.com/2020/07/30/philosophers-gpt-3/#chalmers August 4, 2020 閲覧。
^ “A.I. Is Mastering Language. Should We Trust What It Says? ”. The New York Times (15 April 2022). 2023年2月15日 閲覧。
^ a b Hao, Karen (September 23, 2020). “OpenAI is giving Microsoft exclusive access to its GPT-3 language model” (英語). MIT Technology Review . https://www.technologyreview.com/2020/09/23/1008729/openai-is-giving-microsoft-exclusive-access-to-its-gpt-3-language-model/ 2020年9月25日 閲覧 . ""The companies say OpenAI will continue to offer its public-facing API , which allows chosen users to send text to GPT-3 or OpenAI's other models and receive its output. Only Microsoft, however, will have access to GPT-3's underlying code, allowing it to embed, repurpose, and modify the model as it pleases.""
^ a b “An understanding of AI's limitations is starting to sink in” . The Economist . (June 11, 2020). ISSN 0013-0613 . https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in July 31, 2020 閲覧。
^ Polosukhin, Illia; Kaiser, Lukasz; Gomez, Aidan N.; Jones, Llion; Uszkoreit, Jakob; Parmar, Niki; Shazeer, Noam; Vaswani, Ashish (12 June 2017). "Attention Is All You Need". arXiv :1706.03762 [cs.CL ]。
^ “Natural Language Processing ”. 2020年7月31日 閲覧。
^ Sterling, Bruce (February 13, 2020). “Web Semantics: Microsoft Project Turing introduces Turing Natural Language Generation (T-NLG)” . Wired . ISSN 1059-1028 . https://www.wired.com/beyond-the-beyond/2020/02/web-semantics-microsoft-project-turing-introduces-turing-natural-language-generation-t-nlg/ July 31, 2020 閲覧。 .
^ Marche, Stephen (2022年12月6日). “The College Essay Is Dead ”. The Atlantic . 2022年12月8日 閲覧。
^ “Language Models are Unsupervised Multitask Learners ”. openai.com . December 4, 2019 閲覧。 “"GPT-2, is a 1.5B parameter Transformer"”
^ Ray, Tiernan (June 1, 2020). “OpenAI's gigantic GPT-3 hints at the limits of language models for AI ”. ZDNet . July 31, 2020 閲覧。
^ "We use the same model and architecture as GPT-2 ... with the exception" Brown (2020)
^ "with the exception that we use alternating dense and locally banded sparse attention patterns in the layers of the transformer, similar to the Sparse Transformer" Brown (2020)
^ "we train GPT-3, an autoregressive language model with 175 billion parameters" Brown (2020)
^ Gehman, Samuel; Gururangan, Suchin; Sap, Maarten; Choi, Yejin; Smith, Noah A. (16–20 November 2020), REALTOXICITYPROMPTS: Evaluating Neural Toxic Degeneration in Language Models , Association for Computational Linguistics, pp. 3356–3369, arXiv :2009.11462 , https://arxiv.org/abs/2009.11462 June 2, 2021 閲覧。
^ a b “OpenAI API ”. OpenAI (June 11, 2020). 2023年2月15日 閲覧。
^ Coldewey, Devin (June 11, 2020). “OpenAI makes an all-purpose API for its text-based AI capabilities ”. TechCrunch . October 27, 2021時点のオリジナルよりアーカイブ 。July 31, 2020 閲覧。 “If you've ever wanted to try out OpenAI's vaunted machine learning toolset, it just got a lot easier. The company has released an API that lets developers call its AI tools in on "virtually any English language task."”
^ Arram (July 9, 2020). “GPT-3: An AI that's eerily good at writing almost anything ”. Arram Sabeti . July 31, 2020 閲覧。
^ “OpenAI's API Now Available with No Waitlist ” (英語). OpenAI (2021年11月18日). 2022年11月5日 閲覧。
^ “OpenAI API ” (英語). beta.openai.com . 2022年11月5日 閲覧。
^ “Aligning Language Models to Follow Instructions ” (英語). OpenAI (2022年1月27日). 2022年11月5日 閲覧。
^ Brown, Tom B.; et al. (2020). "Language Models are Few-Shot Learners". arXiv :2005.14165 [cs.CL ]。
^ Thunström, Almira Osmanovic (2022年6月30日). “We Asked GPT-3 to Write an Academic Paper about Itself—Then We Tried to Get It Published ”. Scientific American . 2022年6月30日 閲覧。
^ “Can GPT-3 write an academic paper on itself, with minimal human input? ” (フランス語). Archive ouverte HAL (2022年6月21日). 2022年6月30日 閲覧。
^ “OpenAI API ”. 6 May 2023 閲覧。
^ a b c d e f g h i “GPT-4 API general availability and deprecation of older models in the Completions API ”. openai.com . 7 July 2023 閲覧。
^ “OpenAI Codex ” (英語). OpenAI (10 August 2021). 23 December 2022 閲覧。
^ Thompson, Clive (15 March 2022). “How an AI Became My Code-Writing Genie” . Wired . https://www.wired.com/story/openai-copilot-autocomplete-for-code/ 23 December 2022 閲覧。 .
^ “Microsoft announced its first customer product features powered by GPT-3 and @Azure. ”. The AI Blog (May 25, 2021). 2023年2月15日 閲覧。
^ Vincent, James (25 May 2021). “Microsoft has built an AI-powered autocomplete for code using GPT-3” . The Verge . https://www.theverge.com/2021/5/25/22451144/microsoft-gpt-3-openai-coding-autocomplete-powerapps-power-fx 23 December 2022 閲覧。
^ “CodexDB - SQL Processing Powered by GPT-3 ”. CodexDB - SQL Processing Powered by GPT-3 . 2023年2月15日 閲覧。
^ Fagone, Jason (July 23, 2021). “The Jessica Simulation: Love and loss in the age of A.I.” . San Francisco Chronicle . https://www.sfchronicle.com/projects/2021/jessica-simulation-artificial-intelligence/ July 29, 2021 閲覧。
^ GPT-3 (2020年9月8日). “A robot wrote this entire article. Are you scared yet, human? | GPT-3” . The Guardian . ISSN 0261-3077 . https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3 2020年9月15日 閲覧。
^ “Update: Language Models and Dragon ”. Latitude blog (2021年12月8日). 2023年2月15日 閲覧。
^ “This Mystical Book Was Co-Authored by a Disturbingly Realistic AI” (英語). www.vice.com . (2022年). https://www.vice.com/en/article/7kbjvb/this-magickal-grimoire-was-co-authored-by-a-disturbingly-realistic-ai 23 December 2022 閲覧。
^ “Writing helper Copy.ai raises $2.9M in a round led by Craft Ventures ”. copy.ai (March 17, 2021). 2022年11月5日 閲覧。
^ Dzieza, Josh (20 July 2022). “Can AI write good novels?” . The Verge . https://www.theverge.com/c/23194235/ai-fiction-writing-amazon-kindle-sudowrite-jasper 23 December 2022 閲覧。
^ “1,2-Millionen-Dollar-Investment für ein Start-up, das KI-basierte Texte erstellt” (ドイツ語). (June 21, 2022). https://www.derstandard.de/story/2000136763282/1-2-millionen-dollar-investment-fuer-ein-start-up-das 14 February 2023 閲覧。
^ Lomas, Natasha (2020年8月7日). “Hypotenuse AI wants to take the strain out of copywriting for e-commerce ” (英語). TechCrunch . 2023年1月5日 閲覧。
^ “Can ChatGPT AI chatbot spot early stages of Alzheimer's? - study” . (2022年). https://www.jpost.com/health-and-wellness/mind-and-spirit/article-725929 February 10, 2023 閲覧。
^ Agbavor, Felix; Liang, Hualou (December 22, 2022). “Predicting dementia from spontaneous speech using large language models”. PLOS Digital Health 1 (12): e0000168. doi :10.1371/journal.pdig.0000168 .
^ Manjoo, Farhad (July 29, 2020). “How Do You Know a Human Wrote This?” . The New York Times . ISSN 0362-4331 . https://www.nytimes.com/2020/07/29/opinion/gpt-3-ai-automation.html ? August 4, 2020 閲覧。
^ “Philosophers On GPT-3 (updated with replies by GPT-3) ”. Daily Nous (July 30, 2020). July 31, 2020 閲覧。
^ Simonite, Tom (July 22, 2020). “Did a Person Write This Headline, or a Machine?” . Wired . ISSN 1059-1028 . https://www.wired.com/story/ai-text-generator-gpt-3-learning-language-fitfully/ July 31, 2020 閲覧。 .
^ Claypoole, Theodore (July 30, 2020). “New AI Tool GPT-3 Ascends to New Peaks, But Proves How Far We Still Need to Travel ”. The National Law Review . August 4, 2020 閲覧。
^ Marcus, Gary (2018年12月1日). “The deepest problem with deep learning ” (英語). Medium . 2020年9月29日 閲覧。
^ Marcus, Gary; Davis, Ernest (August 22, 2020). “GPT-3, Bloviator: OpenAI's language generator has no idea what it's talking about” . MIT Technology Review . https://www.technologyreview.com/2020/08/22/1007539/gpt3-openai-language-generator-artificial-intelligence-ai-opinion August 23, 2020 閲覧。 .
^ Metz, Cade (2020年11月24日). “Meet GPT-3. It Has Learned to Code (and Blog and Argue).” (英語). The New York Times . ISSN 0362-4331 . https://www.nytimes.com/2020/11/24/science/artificial-intelligence-ai-gpt3.html 2020年11月24日 閲覧。
^ “Medical chatbot using OpenAI's GPT-3 told a fake patient to kill themselves ” (英語). AI News (2020年10月28日). 2021年1月8日 閲覧。
^ Chomsky on Terence McKenna, Sam Harris, GPT3, Cryptocurrencies, Kierkegaard, Neuralink, & Hofstadter . 24 March 2021. 該当時間: 1:11:44.
^ Floridi, Luciano; Chiriatti, Massimo (1 November 2020). “GPT-3: Its Nature, Scope, Limits, and Consequences”. Minds and Machines 30 (4): 681–694. doi :10.1007/s11023-020-09548-1 .
^ Vincent, James (30 July 2020). “OpenAI's latest breakthrough is astonishingly powerful, but still fighting its flaws” . The Verge . https://www.theverge.com/21346343/gpt-3-explainer-openai-examples-errors-agi-potential 9 November 2022 閲覧。
^ Olanoff, Drew (11 December 2015). “Artificial Intelligence Nonprofit OpenAI Launches With Backing From Elon Musk And Sam Altman” . Tech Crunch. https://techcrunch.com/2015/12/11/non-profit-openai-launches-with-backing-from-elon-musk-and-sam-altman/ 31 May 2021 閲覧。
^ Hao, Karen (29 August 2019). “OpenAI has released the largest version yet of its fake-news-spewing AI” . MIT Technology Review. https://www.technologyreview.com/2019/08/29/133218/openai-released-its-fake-news-ai-gpt-2/ 31 May 2021 閲覧。
^ Coldewey, Devin (11 Mar 2019). “OpenAI shifts from nonprofit to 'capped-profit' to attract capital” . Tech Crunch. https://techcrunch.com/2019/03/11/openai-shifts-from-nonprofit-to-capped-profit-to-attract-capital/ 31 May 2021 閲覧。
^ Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (3 March 2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? . FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. pp. 610–623. doi :10.1145/3442188.3445922 。
^ Mindzak, Michael; Eaton, Sarah Elaine. “Artificial intelligence is getting better at writing, and universities should worry about plagiarism” (英語). http://theconversation.com/artificial-intelligence-is-getting-better-at-writing-and-universities-should-worry-about-plagiarism-160481 2021年11月6日 閲覧。
^ Rogerson, Ann M.; McCarthy, Grace (December 2017). “Using Internet based paraphrasing tools: Original work, patchwriting or facilitated plagiarism?” (英語). International Journal for Educational Integrity 13 (1): 1–15. doi :10.1007/s40979-016-0013-y . ISSN 1833-2595 .
^ Here are a few ways GPT-3 can go wrong . TechCrunch .
^ Comment Regarding Request for Comments on Intellectual Property Protection for Artificial Intelligence Innovation (PDF) . USPTO.
^ “New GPT-3 Capabilities: Edit & Insert ” (英語). OpenAI (2022年3月15日). 2023年1月13日 閲覧。
^ “Models ”. 2023年2月15日 閲覧。
^ Jan LeikeさんはTwitterを使っています: 「Check out OpenAI's new text-davinci-003! Same underlying model as text-davinci-002 but more aligned. Would love to hear feedback about it!」 / Twitter
^ “Model index for researchers ”. 2023年2月15日 閲覧。
^ “ChatGPT: Optimizing Language Models for Dialogue ” (英語). OpenAI (2022年11月30日). 2023年1月13日 閲覧。
^ “Function calling and other API updates ”. openai.com . 14 June 2023 閲覧。
^ “OpenAI API ”. 6 May 2023 閲覧。
^ “OpenAI API ”. 5 May 2023 閲覧。