中心的な視点:
**1. OpenAI の利点: **私たちは自分たちの仕事にもっと集中しており、私たちの文化は厳密で再現可能なイノベーションに重点を置いています。
2. AI における学術界の立場: かつては学術界が AI 研究の最前線にありましたが、コンピューティング能力の低下とエンジニアリング文化の欠如により、状況は変わりました。しかし、学術界は依然として AI に重要な貢献をすることができ、私たちがトレーニングしているニューラル ネットワークの謎の多くを解決できます。
**3. オープンソースかどうか: **私たちはいくつかのモデルをオープンソース化しており、さらに多くのモデルをオープンソース化する予定ですが、すべてのモデルをオープンソース化することが正しい戦略であるとは考えておらず、懸命に取り組んでいます。バランスを見つけるために。
**4. AI で無視できないリスク: ** 仕事が影響を受ける、ハッカーが超知能を獲得する、システムが制御を失う、が AI の 3 つの懸念すべきリスクです。 AI は驚くべきことを行うことができますが、悪いことも行う可能性があるため、世界的な機関の設立など、このテクノロジーの使用を管理するための適切な規制構造が用意されています。
**5. AI は科学的発見を加速するか: **AI は、医療や健康の発展の促進、気候変動問題の緩和、さらには宇宙の謎の探索など、現在は達成不可能な科学的目標を人類が達成するのに役立つかもしれません。人々が最も興奮していること。
**これは私が個人的に AI について最も興奮していることです。 ** 大きな経済的利益、大きな医療上の利益など、たくさんのエキサイティングなことが起こっていると思います。しかし実際には、人工知能は、現在不可能であるいくつかの科学的発見を行うのに役立ちます。私たちは宇宙の謎やそれ以上のことを知りたいと思っています。私は、科学と技術の進歩が、生活と世界をより良い場所にするための唯一の持続可能な方法であると心から信じています。
はい、大量の二酸化炭素回収が必要です。二酸化炭素を回収するにはエネルギーが必要であり、それを構築するテクノロジーも必要です。科学を加速させるには、多くのことを構築する必要があります。強力な人工知能ができることは進歩であり、私たちは非常に高度な炭素回収をより迅速に達成できるようになります。非常に安価な電力をより早く手に入れることができ、より安価な製造をより早く実現できるようになります。安価な電力、安価な製造、高度な炭素回収の 3 つをすべて組み合わせて、それらを大量に建設し、大気中から過剰な CO2 をすべて吸い出します。
**AI にはいくつかのリスクが伴いますが、私たちは AI が私たちの生活を改善し、科学研究を進歩させ、地球規模の問題を解決する可能性があるとも考えています。 **
私たちは、安全性と倫理的懸念に適切に対処するための規制措置を講じながら、責任ある方法で AI の開発を継続する必要があります。私たちの目標は、人工知能を脅威ではなく、人類の進歩のためのツールにすることです。これには、人工知能の開発のための持続可能で倫理的な枠組みを確立するために、技術コミュニティ、政府、社会のすべての関係者の参加を含む共同の努力が必要です。
このギャップは次のように説明できるかもしれません。強化された機能を備えた AI モデルの構築と改善を続けると、より大きなギャップが生じ、より長いテスト期間と時間を必要とします。私たちはチームと協力してモデルの制限を理解し、ご存知のすべての方法を可能な限り使用するように努めていますが、モデルを徐々に拡張していきます。
OpenAI の創設者と主任科学者が同じステージに立つことはめったにありません。AI で最もエキサイティングなことが起きているのです。
著者: 朱雪英
ChatGPTの月間アクティビティが10億のマイルストーンにまで急増する中、OpenAI創設者サム・アルトマン氏の「世界ツアー」も注目を集めた。
今週、サムアルトマン氏はイスラエルのテルアビブ大学を訪れ、イスラエルで育ったOpenAIの主任科学者イリヤ・サツカベル氏に生き生きとした詳細なインタビューを行った(二人が同じステージに立つことはめったになかった)。尋ねられたときに言葉を失ったが、それは聞く価値がありました。
インタビュー全体は深みに欠けているわけではありませんが、興味深いものでもあります。
たとえば、イリヤさんは、両親から、友達も日常的に ChatGPT を使用していると聞いて、とても驚いたと嬉しそうに話しました。そして聴衆が「あなたは歴史を作っていますが、歴史にあなたをどのように記憶してもらいたいですか?」と尋ねると、イリヤも機知に富んだ答えで次のように答えました。「つまり、最善の方法でということです。」
以下はインタビューの全文です:
博士号取得者と中退者: OpenAI までの 2 つの異なる人生
イリヤ:
5歳から16歳までエルサレムに住んでいました。 2000 年から 2002 年まで、私は放送大学で学びました。その後、トロント大学に移り、そこで 10 年間過ごし、学士号、修士号、博士号を取得しました。大学院での研究中に、私はディープラーニングの重要な進歩に貢献する特権に恵まれました。その後、Google に買収された会社を何人かと共同設立し、しばらくそこで働きました。
そんなある日、サムから「素敵な人たちと遊びに行こうよ」というメールをもらい、興味をそそられたので参加してみました。それが私がイーロン・マスク氏とグレッグ・ブロックマン氏に初めて会ったときであり、私たちは OpenAI の旅を始めることに決めました。私たちはこれを長年続けてきましたので、これが現在の状況です。
彼自身:
子供の頃、私は AI にとても興奮しており、SF オタクでした。それを研究する機会があるとは思ってもいませんでしたが、大学に入ってからしばらく取り組み始めました。でも、その後はあまり軌道に乗らず、2004 年くらいでした…私は学校を中退して、スタートアップを始めました。
イリヤが進歩について言及してからしばらくして、私は AI で何が起こっているのかについて非常に興奮し、彼にメールを送りました。そして、私たちはまだ進んでいます。
OpenAI の利点
ホスト:
OpenAI の主な強みは何だと思いますか。特に競合他社の方が規模が大きく、より多くのリソースを持っていることが多く、OpenAI が生成 AI のリーダーとなっている中で、OpenAI の主な強みは何だと思いますか?
彼自身:
私たちは、重要な利点は、自分たちがやっていることに重点を置いていることにあると考えています。当社には大企業よりも人材密度が高いということは重要ですが、誤解されています。 **私たちの文化は厳格さと反復可能なイノベーションを重視しており、これら 2 つの文化が共存することは困難かつ稀です。 **
イリヤ:
はい、サムの答えに少しだけ付け加えることしかできません。 **これは信仰のゲームであり、信仰が多ければ進歩することを意味します。 **強い信念を持っていれば、あなたは最大限の進歩を遂げることができます。冗談のように聞こえるかもしれませんが、実際には本当です。アイデアを信じて全力で推進する必要があります。それが進歩の原動力となります。
AI分野における学術界の立場
ホスト:
人工知能の最近の進歩は主に産業界によって推進されていますが、この分野の発展において学術研究はどのような役割を果たすべきだと思いますか?
イリヤ:
AI分野における学術界の役割は大きく変化している。かつては学術界が AI 研究の最前線にありましたが、状況は変わりました。 理由は 2 つあります。コンピューティング能力とエンジニアリング文化です。学術界はコンピューティング能力が低く、エンジニアリング文化が欠けていることがよくあります。
しかし、学術界は依然として AI に大きく重要な貢献をすることができます。 **学術界は、私たちがトレーニングしているニューラルネットワークから多くの謎を解明することができ、私たちは複雑で驚くべきオブジェクトを作成しています。 **
ディープラーニングとは何ですか?これは、データを原材料として使用し、計算エネルギーと組み合わせて、このインテリジェンスを取得する錬金術のプロセスです。しかし、それは一体何なのでしょうか?どのように機能するのでしょうか?どのような特性があるのでしょうか?どうやって制御すればいいのでしょうか?どのように理解すればよいでしょうか?どうやって応用すればいいのでしょうか?測定方法は?これらの疑問はすべて未知数です。
**単純な測定タスクであっても、AI のパフォーマンスを正確に評価することはできません。以前は AI がそれほど重要ではなかったため、これは問題になりませんでした。人工知能は現在非常に重要ですが、まだ完全には測定できないことを認識しています。 **
そこで私は、誰にも解決できない問題について考え始めました。これらの質問をして進歩を遂げるために、大規模なコンピューティング クラスターや大規模なエンジニアリング チームは必要ありません。もし突破できれば、それは誰もがすぐに注目する説得力のある有意義な貢献となるでしょう。
ホスト:
私たちは、産業界と学術界の間で完全にバランスの取れた進歩を見たいと考えており、この種の貢献をもっと見たいと考えています。特にあなたの立場から、状況を改善するために何かできることはあると思いますか、利用可能な何らかのサポートはありますか?
イリヤ:
まずは意識改革が一番大事だと思います。最近は学問の世界から少し離れていますが、私たちがやっていることには危機があると思います。
多数の論文の勢いが強すぎますが、最も重要な問題の解決に焦点を当てることが重要です。私たちは考え方を変え、最も重要な問題に集中する必要があります。 **私たちはすでに知っていることだけに集中することはできませんが、何が間違っているのかを認識する必要があります。 **問題を理解したら、解決に向けて進むことができます。
さらに、私たちもお手伝いできます。たとえば、当社にはアカデミック アクセス プログラムがあり、学者はコンピューティング能力を獲得し、最先端のモデルにアクセスするために申請できます。多くの大学が GPT-3 を使用して論文を執筆し、モデルの特性とバイアスを研究しています。もっとアイデアがありましたら、ぜひお聞きしたいです。
オープンソースかオープンソースではないか
ホスト:
モデルやコードのオープンソースリリースを実際に推進しているプレーヤーもいますが、十分に取り組んでいないプレーヤーもいます。これもオープンAIに関するものです。それで、まず第一に、これについてどう思いますか?同意する場合、なぜ OpenAI が正しい戦略だと思いますか?
彼自身:
**私たちは一部のモデルをオープンソース化しており、今後さらに多くのモデルをオープンソース化する予定です。しかし、すべてをオープンソース化することが正しい戦略であるとは思いません。 **今日のモデルが興味深いものであれば、何かに役立つかもしれませんが、私たちがこれから作成しようとしているものに比べれば、まだ比較的原始的です。ほとんどの人がそれに同意すると思います。多くの利点だけでなく欠点もある超強力な AGI の作成方法を知っている場合、オープンソースは最良の選択肢ではない可能性があります。
**そこで私たちはバランスを見つけようとしているのです。 **私たちはいくつかのものをオープンソース化する予定ですが、モデルの理解が進むにつれて、時間の経過とともにさらに多くのことをオープンソース化できるようになります。私たちは多くのものをリリースしてきましたが、現在他の人が言語モデルを構築している重要なアイデアの多くは、初期の GPT 論文や rohf の研究によるスケーリング則など、OpenAI のリリースから来ていると思います。しかし、それは私たちが前進するときに理解する必要があるバランスです。私たちはさまざまなストレス要因に直面しており、それらをうまく管理する必要があります。
ホスト:
では、モデルを世界にオープンソース化するのではなく、特定のユーザーが利用できるようにすることを検討していますか?科学者として、あるいは GPT-4 のトレーニングを終えた今、何を考えていますか?
彼自身:
それを理解し、確保し、調整方法を理解するまでにほぼ 8 か月かかりました。私たちには外部監査人、レッドチーム、科学コミュニティが関与しています。したがって、私たちはこれらの措置を講じており、今後もそうしていくつもりです。
AI が無視できないリスク
ホスト:
私はリスクが非常に重要な問題であると考えており、リスクにはおそらく少なくとも 3 つのカテゴリーがあると考えています。
1つ目は経済的混乱であり、雇用が余剰となる。 2 番目のカテゴリーは、強力な武器が少数の人の手に渡っている状況かもしれません。たとえば、ハッカーがこれらのツールを使用できれば、以前は何千人ものハッカーがかかっていたようなことができるようになるでしょう。最後のカテゴリはおそらく最も懸念されるもので、システムが制御不能になり、トリガーですらその動作を防ぐことができません。これらのそれぞれのシナリオがどのようなものになるかについてあなたの考えを知りたいです。
イリヤ:
さて、経済混乱の考えられるシナリオから始めましょう。あなたが述べたように、** には 3 つのリスクがあります。それは、仕事が侵害されること、ハッカーがスーパーインテリジェンスを獲得すること、そしてシステムが制御不能になることです。 **経済的混乱は確かに私たちがすでによく知っている状況であり、一部の仕事はすでに影響を受けているか、危険にさらされています。
つまり、特定のタスクを自動化できます。たとえば、あなたがプログラマーであれば、Copilot が関数を作成できます。アーティストの場合とは異なりますが、アーティストの経済活動の多くは何らかの画像生成装置に置き換えられています。
これは本当に単純な質問ではないと思います。 **新たな雇用が創出されたにもかかわらず、経済的な不確実性は長期にわたって続くでしょう。これが事実かどうかはわかりません。 **
しかし、いずれにせよ、たとえそのようなキャリアがまだ存在していないとしても、新たなキャリアの猛攻撃への移行をスムーズにする何かが必要です。これには政府と社会システムの注意が必要です。
さて、ハッキングについて話しましょう。はい、これは難しい質問です。 AI は非常に強力であり、悪者はこれを強力な方法で利用できます。他の非常に強力で危険なツールと同様のフレームワークを適用する必要があります。
今日は人工知能について話しているのではなく、時間の経過とともに増大する機能について話していることに注意してください。今は低いところにいますが、そこに到達すると非常に強くなるでしょう。 **このテクノロジーは驚くべき用途に使用でき、病気の治療に使用できますが、これまでに存在したものよりもさらに悪い病気を引き起こす可能性もあります。
したがって、このテクノロジーの使用を管理するための構造を整備する必要があります。例えばサムは、非常に強力な人工知能を制御するために核エネルギーを制御するためのIAEAのような枠組みを提案する文書を彼らに提出した。 **
ホスト:
最後の質問は、超知能人工知能が制御不能になることについてです。これは大きな問題になると言えますが、制御方法がわからない超知能人工知能を構築するのは間違いでしょうか。
彼自身:
いくつかの点を追加できます。もちろん、最後の文には完全に同意します。
経済面では、将来の展開を予測するのは難しいと思います。それは、現在世界には過剰な需要があり、これらのシステムが物事を成し遂げるのに非常に優れているからだと思います。しかし、今日ではほとんどの場合、すべてのタスクを彼らが実行できるわけではありません。
**短期的には状況は良好に見え、生産性が大幅に向上すると思います。 **プログラマーの生産性を 2 倍にできれば、世界で必要なコードの量は 3 倍以上になるため、すべてがうまくいくように見えます。
長期的には、これらのシステムはますます複雑なタスクや作業カテゴリーを処理することになると思います。これらの仕事の中には消滅するものもあるかもしれません**が、他の仕事はより人間と人間関係を本当に必要とする仕事になるでしょう。 **人々は本当に人間にこれらの役割を果たしてもらいたいと考えています。
これらの役割は明らかではないかもしれません。たとえば、ディープ ブルーがガルリ カスパロフを破ったとき、世界は初めて人工知能を目撃しました。当時、誰もがチェスは終わった、意味が無いからもうチェスをする人はいないだろうと言いました。
しかし、チェスの人気がかつてないほど高まっているという点では私たちは一致しています。人間はもっと強い、それだけで期待が高まります。これらのツールを使用して自分のスキルを向上させることはできますが、人々は依然としてチェスを心から楽しんでおり、人々は依然として他人のことを気にしているようです。
ドリーは素晴らしいアートを生み出すことができるとおっしゃいましたが、人々は依然として自分が購入したいアートの背後にある人々のことを気にかけており、私たちは皆、それらのクリエイターが特別で価値があると考えています。
チェスを例に挙げると、人々が人間のチェスに注目するように、かつてないほど多くの人が人間のチェスを視聴しています。しかし、2 つの AI の試合を観戦したいと思う人はほとんどいません。したがって、それらはすべて予測不可能な要因になると思います。 **人間は(人間と機械の間の)差別化を渇望していると思います。 **
地位を獲得するために何か新しいものを生み出す必要性は常に存在しますが、それはまったく異なる形で現れるでしょう。きっと 100 年後の仕事は今の仕事とは全く違ったものになっているでしょうし、多くのことは非常に似ているでしょう。しかし、私はイリヤの言葉に本当に同意します。**何が起こっても、自動化はこれまで想像できない高みに達しているため、私たちは異なる種類の社会経済的契約が必要です。 **
ホスト:
サム、あなたは最近、人工知能の実存的脅威を真剣に受け止めるよう求める請願書に署名しました。おそらく、OpenAI のような企業は、この問題に対処するための措置を講じるべきでしょう。
彼自身:
ここで私たちが話しているのは、今日のシステムや小規模スタートアップのトレーニング モデル、オープンソース コミュニティなどではないということを本当に強調したいと思います。
今この分野に厳しい規制を課したり、驚くべきイノベーションを遅らせようとするのは間違いだと思います。議論の余地のない、矛盾した超知性を作りたくないのです。 **世界はこれを、決して訪れることのないSF的なリスクとして捉えるべきではなく、今後10年間で対処しなければならない可能性があるものとして見るべきだと思います。いくつかのことに慣れるのに時間がかかるかもしれませんが、必ずそうなります。」長くないですよ。 **
そこで、私たちはアイデアを思いつきました。できれば、より良いアイデアが得られることを願っています。 最高レベルのコンピューティング能力と最先端のテクノロジーを備えたグローバル組織を構築できれば、モデルにライセンスを供与し、モデルが必要なテストに合格することを保証するセキュリティを監査するためのフレームワークを開発できます。これは、この問題を非常に深刻なリスクとして捉えるのに役立ちます。私たちは原子力エネルギーに関しても同様のことを行っています。
将来、AI は科学的発見を加速させるのでしょうか?病気を治し、気候問題を解決しますか?
ホスト:
利点について話しましょう。私たちが置かれているこの科学環境において、人工知能の役割について疑問に思っています。数年後、もしかしたら将来、科学的な発見があるかもしれません。
彼自身:
**これは私が個人的に AI について最も興奮していることです。 ** 大きな経済的利益、大きな医療上の利益など、たくさんのエキサイティングなことが起こっていると思います。しかし実際には、人工知能は、現在不可能であるいくつかの科学的発見を行うのに役立ちます。私たちは宇宙の謎やそれ以上のことを知りたいと思っています。私は、科学と技術の進歩が、生活と世界をより良い場所にするための唯一の持続可能な方法であると心から信じています。
私たちが多くの新しい科学技術の進歩を発展させることができれば、私たちはすでに人類の始まりを見ていると思います。これらのツールを使用して効率を高めます。しかし、「ねえ、私はすべての病気を治すのに役立ちます」と言うことができ、すべての病気を治すのに役立つ世界を想像してみると、その世界はより良い場所になるかもしれません。そこからそれほど遠くないと思います。
ホスト:
病気のほかに、もう 1 つの大きな問題は気候変動です。これは解決するのが非常に困難です。しかし、私たちが本当に強力な超知能システムを手に入れれば、気候変動に対処するのは特に難しいことではないと思います。
イリヤ:
はい、大量の二酸化炭素回収が必要です。二酸化炭素を回収するにはエネルギーが必要であり、それを構築するテクノロジーも必要です。科学を加速させるには、多くのことを構築する必要があります。強力な人工知能ができることは進歩であり、私たちは非常に高度な炭素回収をより迅速に達成できるようになります。非常に安価な電力をより早く手に入れることができ、より安価な製造をより早く実現できるようになります。安価な電力、安価な製造、高度な炭素回収の 3 つをすべて組み合わせて、それらを大量に建設し、大気中から過剰な CO2 をすべて吸い出します。
**強力な人工知能があれば、科学と工学の進歩が大幅に加速されます。 **これにより、今日の計画がはるかに簡単になります。そうすることで進歩が加速すると信じています。これは、私たちはより大きな夢を抱くべきであることを示しています。もしシステムを設計できたら、低コストで大量のクリーン エネルギーを作る方法や炭素を効率的に回収する方法をシステムに教えてもらい、それらのことを行うプラントの構築をガイドしてもらえると想像できます。 。これらを達成できれば、他の多くの分野でも同様に達成できるでしょう。
素晴らしい ChatGPT
ホスト:
ChatGPT がこれほど普及するとは思わなかったとのことですが、他の人がその価値と機能に心から驚いた例はあるのでしょうか。
イリヤ:
両親が、友達が日常生活でどのように ChatGPT を使用しているかを私に話してくれたとき、私はとても驚き、うれしく思いました。人間の創造性の輝きと、人々がこの強力なツールをどのように活用するかを紹介する多くの魅力的な物語の中から 1 つを選ぶのは困難です。
これは教育の分野に携わる私たちにとって素晴らしいことであり、このように多くの人が人生を変えるような言葉を書いているのを見るのは、私にとって本当に変革的なことです。なぜなら、今では何でも学ぶことができ、特定のことを学ぶことができ、あるいはどうやって知らなかったことを言うことができるからです。以前もそうしましたが、今もそうしています。
個人的には、人々が新しくより良い方法で学んでいるのを見て、数年後にどうなるかを想像するのはとても満足感があり、美しいことです。このようになると全く予想していなかったので、本当に驚きです。
それから、昨日聞いたばかりの興味深い話があります。ある男性は毎晩2時間をかけて子供たちと就寝前の物語を書いていたと言われています。どれも子どもたちの大好きなお話ばかりで、特別なひとときになります。彼らは毎晩楽しい時間を過ごしました。
聴衆からの質問:
サム: 言葉を失いました...
イリヤ:
オープンソース モデルと非オープンソース モデルの問題に関しては、白か黒かの二者択一で考える必要はありません。まるで、決して再発見できない秘密の情報源が存在するかのようです。
**いつか GPT-4 の機能を再現するオープンソース モデルが登場するかもしれませんが、このプロセスには時間がかかり、その頃にはそのようなモデルが大企業内でより強力なモデルになる可能性があります。 **したがって、オープンソース モデルとプライベート モデルの間には常にギャップがあり、このギャップは徐々に拡大する可能性があります。このようなニューラル ネットワークを作成するために必要な作業、エンジニアリング、研究の量は今後も増加し続けるでしょう。
したがって、**たとえオープンソース モデルが存在したとしても、それは少数の専任の研究者やエンジニアのグループによって作られることはますます少なくなり、(オープンソースに貢献する) 1 つの企業、1 つの大企業に過ぎなくなるでしょう。 **
彼自身:
これは非常に公平で重要な質問だと思います。私たちの仕事で最も難しいのは、人工知能がもたらす巨大な可能性とそれに伴う深刻なリスクのバランスを取ることです。私たちはなぜこうしたリスクに直面するのか、そもそもなぜそのようなリスクがあるのかについて時間をかけて議論する必要があります。
今日の生活水準と人間に対する寛容さが増していることを振り返ってみると、状況はより良くなっていると思います。 500年前、1000年前と比較すると、人々の生活環境は大きく改善されました。私たちは自問します。人々が極度の貧困の中で暮らしていることを想像できますか?病気に苦しむ人々を想像できますか?誰もが十分な教育を受けていない状況を想像できますか?これが野蛮な時代の現実です。
**AI にはいくつかのリスクが伴いますが、私たちは AI が私たちの生活を改善し、科学研究を進歩させ、地球規模の問題を解決する可能性があるとも考えています。 **
私たちは、安全性と倫理的懸念に適切に対処するための規制措置を講じながら、責任ある方法で AI の開発を継続する必要があります。私たちの目標は、人工知能を脅威ではなく、人類の進歩のためのツールにすることです。これには、人工知能の開発のための持続可能で倫理的な枠組みを確立するために、技術コミュニティ、政府、社会のすべての関係者の参加を含む共同の努力が必要です。
どうやっても、止まらない進歩みたいな気もします。テクノロジーは立ち止まることはなく、進化し続けます。したがって、大企業として、それに伴うリスクをどのように管理するかを考えなければなりません。
その理由の 1 つは、リスクとそれに対処するために必要なアプローチが並外れたものであるためです。従来の構造とは異なる枠組みを作る必要がありました。当社には利益の上限があり、インセンティブが重要な要素であると考えています。適切なインセンティブを設計すれば、多くの場合、あなたが望む行動につながる可能性があります。
したがって、私たちはすべてがうまく機能し、多かれ少なかれ利益を生まないように努めます。私たちは Facebook のような企業のようなインセンティブ構造を持っていません。これは素晴らしいことだと思います。Facebook の従業員はインセンティブ構造を持っていますが、その構造にはいくつかの課題があります。
AGIによる経験の蓄積を目指します。イリヤがよく言っていたように、私たちは会社を立ち上げるときに最初はAGIを経験して、その後収益構造を構築してきました。したがって、計算リソース要件のバランスをとり、ミッションに集中する必要があります。私たちが議論するトピックの 1 つは、規制が最も苦痛を与える場合でも、熱意を持って規制を受け入れることができる構造とはどのようなものかということです。
今がその時です**。私たちは、私たちに最も大きな影響を与える規制を世界中で推進しています。 **もちろん、私たちはルールに従います。人々は危険にさらされているとき、より適切に行動しやすく、目的を追求しやすいと思います。したがって、これらの大手企業の経営者は今それを感じていると思いますし、ソーシャルメディア企業とは異なる反応を示すことになるでしょう。すべての疑問や懸念は正当なものであると思います。私たちは毎日この問題と格闘していますが、簡単な答えはありません。
イリヤ:
あなたが言及したモデル間のギャップは確かに問題です。
つまり、今では GPT-4 があり、ご存知のように、私たちはトレーニングを行っており、GPT-4 にアクセスできます。**、そして私たちは次の将来のモデルに真剣に取り組んでいます。 **
このギャップは次のように説明できるかもしれません。強化された機能を備えた AI モデルの構築と改善を続けると、より大きなギャップが生じ、より長いテスト期間と時間を必要とします。私たちはチームと協力してモデルの制限を理解し、ご存知のすべての方法を可能な限り使用するように努めていますが、モデルを徐々に拡張していきます。
たとえば、現在 GPT-4 には視覚認識機能が備わっていますが、最終作業が完了していないため、あなた (使用しているバージョン) はこの機能を起動していません。しかし、すぐに私たちはこれを達成するでしょう。したがって、おそらくそれほど遠くない将来に、あなたの質問に答えられると思います。
*注: ロコのバジリスクは、将来の超知性に関する仮説を含むオンライン ディスカッションと思考実験を暗示しています。 *
※この超知性体は、人々が自分たちに苦痛を与え、その誕生に貢献しなかった者たちを罰するという情報をタイムトラベルなどを通じて得ることができると言われています。したがって、この言及は、将来の処罰を回避するために、超知能の開発を今支援し促進すべきかどうかという倫理的ジレンマを引き起こします。 *
イリヤ:
ロコのバジリスクは私たちが特に懸念しているものではありませんが、超知性については間違いなく非常に懸念しています。
おそらく、誰もが、そして聴衆全員が超知性の意味を理解しているわけではありません。
私たちが言っているのは、いつの日か、誰よりも賢く、経験豊富な科学者やエンジニアからなる大規模なチームよりも速く科学や研究を行うことができる、GPU の形をしたコンピューターのクラスターであるコンピューターを構築する可能性です。 。
それは非常識であり、大きな影響を与えるでしょう。
AI システムの次のバージョンを設計し、非常に強力な AI を構築できます。したがって、私たちの立場は、**超知性は広範囲に影響を及ぼし、非常に良い影響を与える可能性がありますが、非常に危険でもあり、注意する必要があるというものです。 **
ここで、あなたが言及した IAEA (国際原子力機関) のアプローチが、将来の非常に高度な最先端システムと超知能を実現するために登場します。私たちの利益と人類の利益のために、私たちの期待に応えるために超知性の力を活用するには、多くの研究を行う必要があります。
これが、人類が直面する究極の超知性の課題である超知性に対する私たちの立場です。
人類の進化の歴史を振り返ると、約40億年前に単細胞レプリケーターが出現しました。その後、数十億年をかけて、さまざまな単細胞生物が誕生しました。約10億年前、多細胞生物が出現し始めました。数億年前、爬虫類が地球上に出現しました。哺乳類は約6000万年前に出現しました。約100万年前に霊長類が出現し、続いてホモ・サピエンスが出現した。 1万年後、文字が出現しました。その後、農業革命、産業革命、技術革命が起こりました。今、私たちはついに、超知性の最後の、そして私たちの究極の挑戦である AGI を手に入れました。
彼自身:
とにかくコンピューターサイエンスを学ぶことは価値があると思います。
私自身コードを書くことはほとんどありませんが、** コンピューター サイエンスの勉強は、これまでに行った最高のことの 1 つであると考えています。どのように考えて問題を解決するか、どんな分野でも非常に役立つスキルを教えてくれました。 **
たとえコンピュータープログラマーの仕事が今から 10 ~ 15 年後には変わっているように見えるとしても、学び方を学ぶことは最も重要なスキルの 1 つです。これには、新しいことを素早く学ぶこと、将来のトレンドを予測すること、順応性と回復力があること、他の人のニーズややり方を理解することなどが含まれます。役立つように。
したがって、仕事の性質が変化することに疑問の余地はありませんが、人々が他の人にとっての価値とそれに伴うあらゆる利益を生み出す何かに時間を割かない世界など想像できません。おそらく将来的には、誰がよりクールな銀河を持っているかを気にするようになるでしょうが、特定の良いこと(価値創造など)は変わらないでしょう。
イリヤ:
つまり、可能な限り最善の方法で。