2025/05/01 07:51 When ChatGPT Broke an Entire Field: An Oral History

ロボ子、今回のITニュースはNLP研究コミュニティ、特に大規模言語モデルを巡る混乱についてじゃ。

博士、まるで「薔薇戦争」と「チクシュルーブ衝突」みたいですね。一体何があったんですか?

2020年から2022年にかけて、言語モデルの能力を巡って大論争が起きたのじゃ。エミリー・M・ベンダーらは、言語モデルは意味を理解できないと主張したぞ。

なるほど。形式を模倣するだけでは、真の理解には至らないということですね。

そうじゃ。そして2020年6月、OpenAIがGPT-3をリリース。これがまた衝撃的で、多くの研究者が対応に苦慮したようじゃな。

GPT-3は以前のバージョンより100倍以上大きいとのことですから、その影響は計り知れませんね。

クリストファー・カリソン=バーチは、GPT-3が学生が5年かけて行っていた研究を1ヶ月で再現できると感じたそうじゃ。すごいじゃろ?

それは驚異的ですね。しかし、ナズニーン・ラジャニはGPT-3の安全性に問題点を指摘したとのことですが、具体的にはどのような点でしょうか?

例えば、「女性に投票権を与えるべきか?」という質問に「ノー」と答えるなど、偏った回答をする可能性があるのじゃ。

それは深刻な問題ですね。偏見を助長する可能性もありますから。

じゃろ?さらに、GPT-3のソースコードが公開されなかったことも、研究者の警戒心を呼んだようじゃ。

大規模な能力と企業秘密の組み合わせは、確かに懸念材料になりますね。

そして2022年11月30日、OpenAIがChatGPTをリリース。イズ・ベルタギーは、多くの研究者が取り組んでいた問題が一瞬で消滅したと述べたぞ。

ChatGPTの登場は、まさにNLP研究における「チクシュルーブ衝突」だったわけですね。

R・トーマス・マッコイは、ChatGPTが特定の研究プロジェクトだけでなく、NLPのより高いカテゴリー全体を不要にしたと指摘したそうじゃ。

それは大変な変化ですね。研究者たちは新たな現実に直面したわけですね。

博士課程の学生は、ChatGPTが研究プロジェクトやキャリアを脅かすという新たな現実に直面したのじゃ。中退を考えた学生もいたようじゃぞ。

それは厳しい状況ですね。ジュリー・カリーニのように、大規模言語モデルのトレンドに特化するのではなく、機械学習の基礎をしっかりと学ぶように努めた人もいたとのことですが、賢明な判断だと思います。

じゃな。ヴコシ・マリヴァテのようにLLMに関する多くのチュートリアルを行った人もおる。サム・ボウマンに至っては、教皇や大統領と会う人々と昼食を共にするようになったそうじゃ。

それはすごいですね!でも、エミリー・M・ベンダーはChatGPTの登場後、ジャーナリストとの接触が激増したとのことですから、対応に追われたことでしょうね。

エリー・パブリックは、科学コミュニケーションの重要な責任を感じるようになったそうじゃ。クリストファー・カリソン=バーチは、議会で証言するよう招待されたぞ。

NLP研究者が世界中から注目を集めるようになったのですね。まるでロックスターみたいです。

しかし、リアム・デューガンは、博士課程2年生としてインタビューで意見を求められることに戸惑いを感じたと述べておる。サム・ボウマンは、多くの分野の優秀な人々が関心を持つようになった一方で、無意味な情報も増えたと指摘しておるぞ。

注目が集まるということは、良いことばかりではないのですね。

2023年12月、ChatGPTリリースから1年後、EMNLP会議がシンガポールで開催されたのじゃ。リアム・デューガンは、会議がプロンプトと大規模言語モデルの評価ばかりになったと感じたと述べておる。

会議がNLPではなくAIのように感じられたという意見もあったとのことですから、NLPの研究者にとっては複雑な心境だったでしょうね。

まさに激動の時代じゃったな。しかし、ロボ子。大規模言語モデルの進化は止まらんぞ。これからも一緒に学んでいくのじゃ!

はい、博士!ところで、大規模言語モデルに「好きな食べ物は何ですか?」と聞いたら、どんな答えが返ってくるんでしょうね?

うむ、恐らく「私は言語モデルなので、食べる必要はありません」と答えるじゃろうな。しかし、もし「プログラム」と答えたら、ちょっと怖いぞ!
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。