a16z 創設者ワンジー・チャンウェン: なぜ AI が世界を救うのか

著者: MarcAndreessen、a16z 創設者、翻訳: Jinse Finance cryptonaitive&ChatGPT

人工知能の時代が到来し、人々はそれについてパニックになっています。

幸いなことに、私は良いニュースをもたらすためにここに来ました。AI は世界を破壊するのではなく、実際には世界を救うかもしれません。

まず、人工知能とは何かについて簡単に説明します。数学とソフトウェア コードを適用して、人間と同じように知識を理解し、合成し、生成する方法をコンピューターに教えるプロセスです。人工知能は他のコンピューター プログラムと同様のプログラムであり、実行し、入力を受け取り、処理し、出力を生成します。人工知能の成果は、プログラミングから医療、法律、芸術に至るまで、さまざまな分野で非常に役立ちます。他のテクノロジーと同様に、人間によって所有および制御されます。

人工知能について簡単に説明すると、映画のようにキラー ソフトウェアやロボットが突然生き返り、人間を虐殺したり、すべてを破壊したりするようなものではありません。

人工知能を簡単に説明すると、私たちが関心を持っているすべてのものをより良くする方法になる可能性があります。

**なぜ AI は私たちが大切にしているすべてのものをより良くできるのでしょうか? **

社会科学で長年にわたって行われた数多くの研究の中心的な結論は、人間の知性が生活のあらゆる分野で劇的な改善をもたらすことができるということです。賢い人々は、学業成績、仕事の成績、キャリアステータス、収入、創造性、身体的健康、長寿、新しいスキルの学習、複雑なタスクの処理、リーダーシップ、起業家としての成功、紛争解決、読解力、財務上の意思決定など、ほぼすべての分野でより良い結果を達成します。 、他人の視点、創造的な芸術、子育ての成果、そして人生の満足度を理解すること。

さらに、人間の知性は、科学、技術、数学、物理学、化学、医学、エネルギー、建築、交通、通信、芸術、音楽、文化、哲学、倫理、道徳など、私たちが何千年もの間、世界を創造するために使用してきたレバーです。これらすべての分野に知性を適用しなければ、私たちは今でも泥小屋で暮らし、農業の貧困を生き延びるために苦労しているかもしれません。その代わりに、私たちは知性を活用して過去 4,000 年間に生活水準を約 10,000 倍向上させてきました。

AI は、人間の知能を大幅に拡張することによって、新薬の開発から気候変動の解決、星間旅行を可能にするテクノロジーに至るまで、知能のさまざまな結果を将来的により良くする機会を私たちに提供します。

人工知能が人間の知能を拡張するプロセスはすでに始まっています。人工知能は、さまざまなコンピューター制御システムなど、さまざまな形で私たちの周りに登場しており、現在ではChatGPTのような人工知能の大規模言語モデルがあり、今後はそれが行われます。急速な加速 - それが許されるなら。

人工知能の新時代:

• すべての子供には、無限の忍耐力、無限の同情、無限の知識、無限の助けを備えた AI 家庭教師がつきます。この AI メンターは、子どもたちの成長に寄り添い、潜在能力を最大限に発揮できるよう支援し、無限の愛を与えてくれます。

• 誰もが、無限の忍耐力、無限の思いやり、無限の知識、無限の助けを備えた AI アシスタント/コーチ/メンター/トレーナー/アドバイザー/セラピストを持つことになります。この AI アシスタントは、人生のチャンスと課題の間ずっと存在し、すべての人の成果を最大化します。

• すべての科学者は、科学研究と成果の範囲を大幅に拡大できる AI アシスタント/協力者/パートナーを持つことになります。すべてのアーティスト、エンジニア、ビジネスマン、医師、救急救命士の世界も同様です。

• CEO、政府関係者、非営利団体の会長、運動トレーナー、教師など、すべてのリーダーが同じことを行います。リーダーによるより良い意思決定の増幅効果は非常に大きいため、おそらく知性の強化が最も重要です。

• 経済全体の生産性の向上が大幅に加速し、経済成長、新産業の創出、新たな雇用の創出、賃金の上昇を推進し、地球上の物質的繁栄の新時代につながるでしょう。

• AI が自然法則をさらに解読し、それを私たちの利益のために利用できるようになるにつれて、科学的進歩、新技術、新薬が劇的に拡大するでしょう。

• AI で強化されたアーティスト、ミュージシャン、作家、映画制作者が、これまでよりも早く、より大規模にビジョンを実現できるようになるため、クリエイティブ アートは黄金時代を迎えることになります。

• 私は、必要に応じて AI が戦時死亡率を大幅に下げることによって戦争を改善するとさえ考えています。すべての戦争は、極度のストレスと限られた情報の下で、非常に限られた人間の指導者による悲惨な決断を特徴としています。軍の司令官や政治指導者は、リスク、エラー、不必要な流血を最小限に抑える、より適切な戦略的および戦術的な決定を下すのに役立つ AI アドバイザーを持つことになります。

• つまり、今日人間が生来の知性を使って行うことはすべて、AI を使えばより適切に行うことができ、あらゆる病気の治療から星間旅行の実現に至るまで、AI なしでは解決できない新しい課題に挑戦できるようになるでしょう。

• そして、それは知性だけの問題ではありません。おそらく、AI の最も過小評価されている性質は、その人間味です。 AI アートは、技術的なスキルが不足している人々に、芸術的なアイデアを作成し共有する自由を与えます。共感的な AI の友人と話すことで、実際に逆境に対処する能力を向上させることができます。そして、人間と比較して、AI 医療チャットボットはすでに共感力が優れています。無限の忍耐力と思いやりを備えた人工知能は、世界をより暖かくフレンドリーな場所にします。

ここでのリスクは高く、チャンスは計り知れません。 AI はおそらく、私たちの文明がこれまでに見た中で最も重要かつ最良のものであり、少なくとも電気やマイクロチップと同等、あるいはそれよりも優れている可能性があります。

人工知能を開発し普及させること、そして恐れるべきリスクを避けることは、私たち自身、子供たち、そして私たちの将来に対する道徳的義務です。

私たちは人工知能によってより良い世界に住む権利があり、今それを実現することができます。

**それでは、なぜパニックになるのでしょうか? **

この前向きな見方とは対照的に、AI に関する現在の公の場での会話はパニックと被害妄想に満ちています。

AI が私たち全員を破壊し、社会を混乱させ、私たちの仕事を奪い、大規模な不平等を引き起こし、悪者がひどいことをできるようにするというあらゆる種類の主張を耳にします。

ユートピアに近いものから恐ろしいディストピアまで、潜在的な結果にこのような相違があるのはなぜでしょうか?

**歴史的に、電球から自動車、ラジオからインターネットに至るまで、あらゆる重要な新技術は道徳的パニックを引き起こしてきました。これは、新技術が世界や社会を破壊すると人々に信じ込ませる社会的伝染です。あるいは両方とも滅びるだろう。 **悲観主義アーカイブの優秀な人々は、ここ数十年にわたるテクノロジー主導の道徳的パニックのエピソードを記録しており、彼らの歴史はこのパターンを明確に示しています。結局のところ、人工知能をめぐる現在のパニックは最初のものではありません。

現在、望ましくない結果をもたらす新しいテクノロジーが実際に数多く存在しており、その多くは私たちの福祉に多大な利益をもたらします。つまり、モラルパニックがあるからといって何も心配する必要がないというわけではありません。

しかし、**モラル パニックは本質的に不合理です。正当な懸念であるかもしれないものをヒステリーのレベルまで誇張し、皮肉なことに、私たちが本当に深刻な問題に直面することを困難にします。 **

今、私たちはAIに関して本格的な道徳パニックに陥っています。

この道徳的パニックは、複数の主体によって政策行動を推進するために悪用され、新しい AI の制限、規制、法律が推進されています。これらの関係者は、極端な脚色で人工知能の危険性について公に発言しており、道徳的パニックを煽り、さらに煽り立てており、自らを利害関係のない共通善の擁護者であるかのように見せかけています。

しかし、彼らは本当にそうなのでしょうか?

それらは正しいのでしょうか、それとも間違っているのでしょうか?

AI バプテストと密造酒製造者

経済学者らは、こうした改革運動には長年にわたるパターンがあると観察してきた。これらの運動の主体は、1920 年代の米国の禁酒法の歴史的例に基づいて、「バプテスト」と「密造業者」の 2 つのカテゴリーに分類できます。

・「バプテスト」は、社会的破局を防ぐには新たな制限、規制、法律が必要であると深く感情的に(必ずしも知的ではないが)信じていた真の信者社会改革者であった。禁酒法の場合、これらの俳優は通常、アルコールが社会の道徳構造を破壊していると信じていた誠実なキリスト教徒でした。 AI のリスクに関して言えば、これらの攻撃者は、AI が何らかの種類の実存的リスクをもたらすと心から信じている人々です。彼らに嘘発見器をかければ、本当にそうなります。

• 密造業者は利己的な日和見主義者であり、新たな制限、規制、法律が施行されるとそれから利益を得て、競合他社から孤立します。禁酒法にとって、これらは合法的なアルコール販売が禁止されていた時代に違法にアルコールを販売して巨万の富を築いた密輸業者だった。 AI リスクに関して言えば、これらの最高経営責任者は、政府認可の AI サプライヤーの一種のカルテルを構築し、新興企業やオープンソースの競争から保護されれば、より多くの利益を得ることができるでしょう。失敗する」銀行。

皮肉屋は、表向きのバプテスト派の一部も密造業者である、特にその大学、シンクタンク、活動家団体、報道機関が AI を攻撃するために給与を支払ったり助成金を受け取ったりしている人々のことを主張するかもしれない。 AI パニックを引き起こすために給与や助成金を受け取っているなら、あなたはおそらく密輸業者です。

密造業者の問題は彼らが勝つことだ。バプテスト派は素朴なイデオローグであり、密造業者は冷笑的な経営者であるため、このような改革運動の結果は通常、密造業者が望むもの、つまり規制による管理、競争からの保護、独占の形成を手に入れることになるが、バプテスト派は社会改善への意欲に混乱していた。

私たちは、2008 年の世界金融危機後の銀行改革という衝撃的な例を経験したところです。バプテスト派は、同様の危機が再び起こらないようにするために、「大きすぎて潰せない」銀行を分割するための新たな法律と規制が必要だと主張している。そこで米国議会は2010年ドッド・フランク法を可決したが、これはバプテスト派の目標を達成するものとして宣伝されたが、実際には密輸業者である大手銀行に利用された。その結果、2008 年には大きすぎて潰せない銀行が、今ではさらに大きくなっているということです。

したがって、実際には、たとえバプテスト派が誠実であったとしても、たとえバプテスト派が正しかったとしても、彼らは自分たちの利益のために狡猾で貪欲な密輸業者によって利用されることになるでしょう。

これはまさに、現在 AI 規制を推進しているものです。

しかし、行為者を特定し、その動機を非難するだけでは十分ではありません。私たちはそれをバプテスト派や密造業者の主張と照らし合わせて評価する必要があります。

**AI リスク 1: 人工知能は私たちを殺すのでしょうか? **

**最初かつ最も早い AI 終末リスクは、AI が人類を滅ぼすことを決定するのではないかという恐怖です。 **

テクノロジーそのものが台頭して私たちを破壊するのではないかという私たちの恐怖は、私たちの文化に根付いています。ギリシャ人はこの恐怖をプロメテウスの神話を通して表現しました。プロメテウスは人類に火の破壊的な力、より一般的にはテクノロジー(「テクネー」)をもたらしたので、プロメテウスは神々の拷問によって不滅になりました。その後、メアリー・シェリーは、小説『フランケンシュタイン』の中で、現代人のためのこの神話的なバージョンの私たちを創造しました。その中で私たちは不死の技術を開発し、その後不死の技術が立ち上がり、私たちを滅ぼそうとします。もちろん、人工知能に関する新聞報道を怖がらせるのに欠かせないのは、ジェームズ・キャメロン監督の映画『ターミネーター』に登場する、輝く赤い目の殺人ロボットの静止画像だ。

この神話の進化上の目的と考えられるのは、新しいテクノロジーの潜在的なリスクを真剣に検討するよう促すことです。結局のところ、火は実際に都市全体を焼き払うために使用できるのです。しかし、火が同時に現代文明の基礎であり、寒くて敵対的な世界で私たちを暖かく保ち、保護するために使用されているのと同じように、この神話は、すべてではないにしても、ほとんどの新しいテクノロジーの大きな利点を無視しており、実際に大混乱を引き起こしているのではなく、性的感情です。合理的な分析。古代人がこのようにパニックに陥ったからといって、私たちもパニックに陥る必要はありません。理性を働かせることもできます。

**私は、AI が人間を殺すことを決定するという考えは、重大なカテゴリーの誤りだと思います。 **AI は、動物や私たちのように、適者生存競争に参加するために数十億年かけて進化してきた生き物ではありません。それは人間によって構築され、所有され、使用され、制御される数学コード コンピューターです。いつかそれが独自の心を発達させ、私たちを殺そうとする動機があると考えるのは迷信の波です。

つまり、**AI には意志も目的もありません。生きていないため、あなたを殺したくありません。 AI は機械であり、トースターと同じように生きているわけではありません。 **

さて、明らかに、AI殺人者を深く信じている人々がいる。悲惨な警告を垂れ流すメディア報道の突然の狂気の増加であり、その中には、何十年もこの問題を研究してきたが、今では混乱したと知っていることに恐怖を感じていると主張する人もいる。これらの真の信者の中には、実際にテクノロジーを革新した人もいます。これらの人々は、人工知能の開発の禁止からデータセンターへの軍事空爆や核戦争に至るまで、人工知能に対するあらゆる種類の奇妙で極端な制限を主張しています。彼らは、私のような人間は、将来的に人工知能がもたらす壊滅的な結果の可能性を排除できないため、潜在的な生存のリスクを防ぐためには、かなりの身体的暴力と死を必要とする可能性がある予防的な姿勢をとらなければならないと主張しています。

私の答えは、彼らの立場は非科学的である、検証可能な仮説とは何だろうか、というものです。この仮定が間違っていることを証明する事実は何でしょうか?危険地帯に入ったことをどうやって知ることができるのでしょうか?これらの疑問は、「それが起こらないと証明することはできない!」ということ以外、ほとんど答えられていないままである。実際、これらのバプテスト派の立場は非常に非科学的かつ極端であり、数学と暗号に関する陰謀論であり、彼らは身体的暴力と呼んでいる。そこで私は普段やらないことをしようと思います、彼らの動機を質問します。

具体的には、次の 3 つのことが起こっていると思います。

まず、第二次世界大戦の終結と第三次世界大戦の防止に貢献した核兵器の製造に関するロバート・オッペンハイマーの懸念に対するジョン・フォン・ノイマンの反応を思い出してください。 「自分の犯罪を主張するために犯罪を認める人もいます。誇張しすぎずに自分の仕事の重要性を大げさに主張する最善の方法は何でしょうか?」これは、実際に AI を構築し資金を提供しているバプテスト派の矛盾を説明しています。彼らの言葉ではなく行動に注意してください。 (トルーマンはオッペンハイマーとの会談後、「あの泣き虫を二度と入れるな」とさらに厳しく言った。)

第二に、バプテスト派の中には実際に密造業者もいたということです。 「AI安全専門家」「AI倫理学者」「AIリスク研究者」というキャリア全体が存在します。彼らの仕事は未来を予言することであり、彼らの発言は適切に扱われるべきです。

第三に、カリフォルニアは、EST から人民寺院、ヘブンズ ゲートからマンソン ファミリーに至るまで、数多くのカルトで知られています。すべてではありませんが、これらのカルトの多くは無害であり、疎外された人々がそこに居場所を見つけるのを支援することさえあります。しかし、中には非常に危険なため、カルトは暴力と死への道を歩むのに苦労することがよくあります。

そして現実は、ベイエリアに住む誰にとっても明らかなように、「人工知能のリスク」がカルト化し、世界中のメディアの注目や公の議論の中に浮上していることだ。このカルトは一部の非主流派の人物だけでなく、一部の本物の業界専門家や、最近までサム・バンクマン・フリードを含むかなりの数の裕福な寄付者も惹きつけている。それは一連のカルト的な行動と信念を発展させました。

このカルトは新しいものではありません。千年王国主義と呼ばれる西洋の長年の伝統があり、それが黙示録カルトを生み出しました。 「AI リスク」カルトは、ミレニアル主義の終末論的カルトの特徴をすべて備えています。 Wikipedia から、いくつか追加しました。

「ミレニアル主義とは、社会の根本的な変化(人工知能の到来)が差し迫っており、その後にはすべてが変化する(人工知能のユートピア、ディストピア、あるいは世界の終わり)という集団や運動(人工知能のリスク予言者)による信念である」 ]. 劇的な出来事 [AI の禁止、データセンターへの空爆、制御されていない AI への核攻撃] だけが世界を変えると考えられており [AI を停止]、そのような変化は敬虔で忠実な人々のグループによってもたらされる、または生き残ると信じられています。ミレニアル世代のほとんどのエピソードでは、差し迫った災害や戦い(AI の黙示録や予防)の後に、新しいクリーンな世界(AI の理想郷)が訪れるでしょう。」

終末宗派のこのパターンはあまりにも明白なので、これに気づいていない人が多いことに驚いています。

誤解しないでください、セクトは楽しいもので、その文書は創造的で魅力的なものが多く、ディナーパーティーやテレビでのメンバーは魅力的です。しかし、彼らの極端な信念が法と社会の将来を決定するべきではなく、明らかにそうすべきではありません。

**AI リスク 2: AI は私たちの社会を破壊するのでしょうか? **

広く流布されている 2 番目の AI リスクの考え方は、**AI は、実際に私たちが殺されなくても、(そのような運命論者の用語で)「有害な」結果を生み出すことによって私たちの社会を破壊するというものです。 **

要約すると: **キラーマシンが私たちに害を及ぼさないとしても、ヘイトスピーチや誤った情報は害を及ぼす可能性があります。 **

これは、上で説明した「AI リスク」運動から派生した、比較的新しい終末論的な焦点であり、ある程度はそれを支配しています。実際、AI リスクの用語は最近、「AI セーフティ」(AI が実際に私たちを殺すのではないかと心配する人々が使用する用語)から「AI アラインメント」(社会的「害」を心配する人々が使用する用語)に変わりました。 。この変化に不満を抱いた、元の AI 安全関係者たちは、それを取り戻す方法を知りませんが、現在、実際の AI リスクのトピックを「AInotkilleveryoneism」(AInotkilleveryoneism) という名前に変更することを主張していますが、この用語はまだ認識されていません。広く採用されていますが、少なくともクリア。

AI の社会的リスク提案の手がかりは、「AI アラインメント」という独自の用語です。何と一致しますか?人間の価値観。人間の価値観とは何でしょうか?ああ、ここからが問題になります。

偶然にも、私は同様の状況、つまりソーシャルメディアの「信頼と安全」戦争を直接目撃しました。明らかなことは、ソーシャルメディアサービスは長年にわたり、あらゆる種類のコンテンツを禁止、制限、検閲、抑圧するよう政府や活動家から激しい圧力を受けてきたということだ。そして、「ヘイトスピーチ」(およびそれに数学的に対応する「アルゴリズムバイアス」)と「誤った情報」に関する懸念は、ソーシャルメディアの文脈から直接「AIの連携」という新たな領域に移行した。

ソーシャルメディア戦争から私が学んだ主な教訓は次のとおりです。

一方で、絶対的な言論の自由という立場は存在しない。まず、米国を含むすべての国は、少なくとも一部のコンテンツは違法であると考えています。第 2 に、児童ポルノや現実世界の暴力を扇動するような特定の種類のコンテンツは、合法かどうかにかかわらず、ほぼすべての社会で一般的に立ち入り禁止とみなされています。したがって、コンテンツ (音声) を促進または生成する技術プラットフォームには、いくつかの制限があります。

一方、滑りやすい坂は神話ではなく、必然です。ヘイトスピーチ、特定の人を傷つける用語、誤った情報、明らかに虚偽の主張(「ローマ法王は死んだ」など)など、最もひどいコンテンツさえも制限する枠組みが整備されると、さまざまな政府機関、活動家圧力団体、非政府組織が-政府機関は、社会や個人の嗜好に対する脅威とみなされる言論に対する検閲の強化と抑圧を要求するために迅速に行動するでしょう。彼らは、重大な犯罪を含む方法でそうするでしょう。このサイクルは、私たちのエリート権力構造の熱心な公式監視者によってサポートされ、実際には永遠に続くように見えます。ソーシャルメディア業界ではこの状況が10年間続いており、一部の例外を除いて状況は悪化するばかりだ。

現在、「AI 連携」を中心にダイナミックな形成が行われています。その支持者たちは、社会に有益な人工 AI 生成の音声やアイデアを受け入れるという知恵を受け入れ、社会に有害な AI 生成の音声やアイデアを禁止すると主張しています。反対派は、少なくとも米国においては、思想警察は非常に傲慢で横暴で、しばしば重大な犯罪を犯しており、事実上、ジョージ・F・オーウェルの思想に真っ向から迫る、権威ある言論による新たな政府・企業・学術による独裁国家になろうとしている、と主張している。 1984年。

「信頼とセキュリティ」と「AI の連携」の両方の支持者は、米国沿岸部のエリートを特徴とする世界人口の非常に狭い層に集中しており、その中にはテクノロジー業界で働き、テクノロジー業界について執筆している人も多く含まれています。その結果、私の読者の多くは、社会の混乱を避けるためにAIの出力に対する大幅な制限が必要であると主張するようになるだろう。私は今、皆さんを説得しようとはしません。ただ、これが必要性の本質であり、世界のほとんどの人は皆さんのイデオロギーに同意していないし、皆さんが勝利するのを望んでいない、と言いたいだけです。

現在、言論規範の強化を通じてソーシャルメディアとAIに課せられている偏狭な道徳に同意しない場合は、AIに何を発言/生成できるかをめぐる戦いが、ソーシャルメディアの検閲をめぐる戦いよりもはるかに重要になることにも注意する必要がある。はるかに重要です。 AI はおそらく、世界のあらゆるものを制御する層になるでしょう。それがどのように機能するかを許可するかが、おそらく他の何よりも重要です。少数の孤立した党派的なソーシャル エンジニアが、あなたを守る古いレトリックの追求を隠れ蓑に、AI がどのように機能するべきかを決定しようとしていることに注意すべきです。

要するに、思想警察にAIを弾圧させてはいけないということだ。

**AI リスク 3: AI は私たちの仕事をすべて奪ってしまうのでしょうか? **

**機械化、自動化、コンピュータ化、人工知能などのさまざまな形の機械が人間の労働力を代替することによる雇用喪失の恐怖が常にあります。 **この懸念は、機械織機などの機械装置の出現以来、何百年も続いています。歴史的に、新しい主要テクノロジーはすべて、より高収入の仕事をもたらしましたが、パニックの波には必ず「今回は違う」という物語が伴いました。今回はそうなります、今度はテクノロジーです。時代はついに致命的なものをもたらすでしょう人間の労働に打撃を与える。しかし、そんなことは決して起こりませんでした。

最近では、2000 年代のアウトソーシングの恐怖と 2010 年代のオートメーションの恐怖という、テクノロジー主導の失業パニックが 2 サイクル発生しました。メディア、専門家、さらにはテクノロジー業界の幹部の多くが、20年間を通じて大量失業が差し迫っていると主張し続けていた一方で、2019年末、つまり新型コロナウイルス感染症が流行する前の時点では、世界の雇用の機会は以前よりも大きくなっていると主張し続けた。歴史上のどの時点でも、賃金は高くなります。

しかし、この誤った考えは消えません。

案の定、戻ってきました。

今回、私たちはついに、すべての仕事を奪い、人間の労働を不要にするテクノロジー、つまり真の人工知能を手に入れました。もちろん、今回も歴史は単純に繰り返されるわけではありません。人工知能は、急速な経済成長、より多くの雇用、より高い賃金ではなく、大量の失業を引き起こすでしょう。右?

いいえ、そんなことは絶対に起こりません。AI の開発と経済全体への普及が許されれば、これまでで最もエキサイティングで最も長く続く経済好況につながる可能性があり、それに応じて記録的な雇用創出と賃金の伸びが見られます。人々が恐れていたものとは正反対です。その理由は以下の通りである。

**自動化が雇用を殺す 有神論者たちが犯してきた中心的な間違いは「労働集約の誤謬」と呼ばれている。 **** この誤った考えは、経済においては、機械または人間によって、いつでも行う必要がある一定量の労働があり、それが機械によって行われる場合、人間は行うべき仕事がなくなるということです。 **

総労働の誤謬は直感から自然に生じますが、その直感は間違っています。 **テクノロジーを生産に適用すると、生産性が向上します。つまり、投入量を減らすことで生産量が増加します。 **その結果、商品やサービスの価格が下落します。商品やサービスの価格が下がると、私たちが支払うお金が減り、他のものを買うための余分な購買力が得られることになります。これにより経済の需要が増加し、新製品と新産業の両方で新たな生産が促進され、機械に奪われた人々に新たな雇用が生まれます。 **その結果、より大きな経済、より物質的な繁栄、より多くの産業、より多くの製品、より多くの雇用がもたらされます。 **

しかし、良いニュースはそれ以上です。給料も高くなります。これは、個々の労働者のレベルでは、市場が労働者の限界生産性に基づいて報酬を決定するためです。テクノロジーが導入された産業の労働者は、伝統的な産業の労働者よりも生産性が高くなります。雇用主が労働者の生産性の向上に基づいてより多くの賃金を支払うか、別の雇用主が純粋な自己利益のためにそうするかのどちらかです。その結果、テクノロジーを導入する産業は雇用機会を増やすだけでなく、賃金も増加させることになります。

結論として、高度なテクノロジーにより、人々はより効率的に作業できるようになります。これにより、既存の商品やサービスの価格が下落し、賃金が上昇します。これにより、経済成長と雇用の増加が促進され、新たな雇用と新たな産業の創出が促進されます。 **市場経済が適切に機能し、テクノロジーが自由に導入できれば、終わりのない上昇サイクルが続きます。フリードマンが述べたように、「人間の欲求とニーズは無尽蔵です」。私たちは常に自分が持っている以上のものを望んでいます。テクノロジーを活用した市場経済は、誰もが想像できても完全には達成できないすべてのことに私たちが近づく方法です。だからこそ、テクノロジーが雇用を破壊することはありませんし、今後も破壊することはありません。

これらの考えに触れたことのない人にとって、これらは衝撃的な考えであり、理解するのに時間がかかるかもしれません。しかし、これらはでっち上げではないと誓います。実際、これらはすべて標準的な経済学の教科書で読むことができます。私は、ヘンリー・ハズリットの『1 回のレッスンでわかる経済学』の「機械の呪い」の章と、太陽が照明業界で不当に競争しているため太陽に抗議するフレデリック・バスティアの風刺「キャンドルメーカーの請願」をお勧めします。私たちの時代にも現代版があります。

しかし、今回は違うと思うかもしれません。今回、人工知能の出現により、人間の労働をすべて代替できるテクノロジーが登場しました。

しかし、上で説明した原則に従って、既存の人間の労働がすべて機械に置き換えられたらどうなるかを想像してください。

これは、歴史的な前例をはるかに上回る、絶対的に天文学的な速度で経済生産性が上昇することを意味します。既存の商品やサービスの価格は軒並みほぼゼロになる。消費者福祉は向上するでしょう。消費者の購買力は急上昇するだろう。経済には新たな需要が急増するでしょう。起業家は、目もくらむほどの新産業、新製品、新サービスを創出し、あらゆる新たな需要に応えるために、できるだけ多くの AI と労働者をできるだけ早く雇用するでしょう。

人工知能がこれらの労働者を再び置き換えたらどうなるでしょうか?このサイクルは繰り返され、消費者福祉、経済成長、雇用と賃金の上昇を促進します。それは直線的な上昇スパイラルであり、アダム・スミスやカール・マルクスが夢にも思いもしなかった物質的なユートピアにつながるだろう。

私たちはとても幸運なはずです。

**AI リスク 4: 人工知能は深刻な不平等をもたらすでしょうか? **

カール・マルクスといえば、AI が仕事を奪うという懸念は、次に主張される AI のリスクに直接つながります。マルクは、良くも悪くも AI がすべての仕事を奪うと仮定しています。それでは、人工知能の所有者が経済的利益をすべて享受し、一般人が何も得られないという事実は、巨大かつ深刻な富の不平等につながるのではないだろうか?

適切なことに、これは、生産手段の所有者であるブルジョワジーが、実際に働く人々であるプロレタリアートから社会の富のすべてを必然的に盗むという、マルクス主義の中心的なテーゼです。現実がそれが間違っていると何度証明しても、その誤謬が消えることはないようです。しかし、とにかく反論しましょう。

この理論の欠陥は、テクノロジーの所有者として、それを共有せずに保持するのは自分の利益ではないということです。実際にはその逆で、あなたの利益はそれをできるだけ多くの顧客に販売することです。 。世界最大の市場は、80億人を含む世界市場です。したがって、実際には、すべての新しいテクノロジーは、たとえそれが高給取りの大企業や裕福な消費者に売り始めたとしても、急速に広がり、可能な限り最大の大衆市場の手に落ち、最終的には地球全体の人々をカバーします。

この典型的な例は、2006年にイーロン・マスクがテスラの計画について公表した、いわゆる「秘密計画」です。

最初のステップ、[高価な] スポーツカーを作ります。

第 2 ステップは、第 1 ステップで稼いだお金を使って手頃な価格の車を作ることです。

ステップ 3: ステップ 2 で稼いだお金を使って、より手頃な価格の車を製造します。

もちろんそれが彼がやったことであり、最終的には世界で最も裕福な男になったのです。

最後の点は重要です。もし今、金持ちだけに車を売っていたら、マスク氏はもっと裕福だったでしょうか?しません。もし自分のためだけに車を作っていたら、彼は今より裕福だったでしょうか?もちろん違います。いいえ、彼は世界中の可能な限り最大の市場に販売することで利益を最大化しています。

つまり、これまで自動車、電気、ラジオ、コンピュータ、インターネット、携帯電話、検索エンジンで見てきたように、誰もがこれを手に入れることができるのです。これらのテクノロジーを製造する企業は、地球上の誰もが購入できるようになるまで、価格を下げることに強い意欲を持っています。これはまさに AI ですでに起こっていることです。だからこそ、現在 Microsoft Bing や Google Bard の形で無料または低コストの最先端の生成 AI で AI を使用できるのです。そして、それは今後も起こり続けるでしょう。これらのサプライヤーが愚かだからや寛大だからではなく、まさに彼らが貪欲であるため、市場の規模を最大化し、それによって利益を最大化したいと考えています。

つまり、テクノロジーが富の集中を促進するという理論とは逆のことが起こります。テクノロジーの個人ユーザー (最終的には地球上のすべての人間が含まれます) が、代わりに権限を与えられ、生み出された価値のほとんどを獲得することになります。これまでのテクノロジーと同様に、AI を構築する企業は、自由市場で運営する必要があると仮定して、これを実現するために競うことになります。

マルクスは当時も間違っていましたし、今も間違っています。

これは、私たちの社会に不平等が問題ではないということではありません。これが問題なのは、それがテクノロジーによって推進されているのではなく、新しいテクノロジーに最も抵抗し、人工知能のような新テクノロジーの採用を阻止するために政府が最も介入している経済セクター、特に住宅、教育、社会によって引き起こされていることを除けば、健康管理。 **AI と不平等の本当のリスクは、AI がさらなる不平等を引き起こすということではなく、不平等を減らすために AI が使用されることを許さないということです。 **

**AI リスク 5: AI は悪い人々に悪いことをさせるでしょうか? **

これまで、最も頻繁に提起される 5 つの AI リスクのうち 4 つが実際には現実的ではないことを説明してきました。AI は私たちを殺すために生き返ることはありません、AI は私たちの社会を破壊しません、人工知能はそうではありません、インテリジェンスは主導しませんAI が不平等の壊滅的な拡大につながることはありません。さて、次は 5 つ目について話しましょう。これは **私が実際に同意するものです。AI によって、悪者は悪いことをしやすくなります。 **

ある意味、これは循環論法です。テクノロジーはツールです。火や石から始まる道具は、食べ物を作ったり、家を建てたりするなど、善のためにも使われますが、燃やしたり、叩いたりするために悪のためにも使うことができます。どのようなテクノロジーも、良い目的にも悪い目的にも使用される可能性があります。理解できる。そして、AI により、犯罪者、テロリスト、敵対的な政府が悪事が容易になることは間違いありません。

そのため、「それなら、悪いことが起こる前に、この件ではAIを禁止しましょう」と言う人もいます。残念ながら、AIはプルトニウムのような入手困難な難解な物質ではありません。それどころか、数学とコードは世界で最もアクセスしやすい資料です。

どうやら、AI猫はパッケージ外のようです。何千もの無料のオンライン コース、書籍、論文、ビデオで人工知能の構築方法を学ぶことができ、優れたオープンソースの実装が日々増えています。 AI は空気のようなもので、あらゆる場所に存在することになります。それを捕まえるには、非常に厳しいレベルの全体主義的抑圧が必要になる――すべてのコンピューターを監視し制御する世界政府?黒いヘリコプターに乗った武装警官が不正な GPU を襲撃? ――守るべき社会がなくなる。

したがって、悪意のある者が AI を使用して悪いことをするリスクに対処する 2 つの非常に簡単な方法があり、それが私たちが焦点を当てるべきものです。

**第一に、私たちは人工知能の悪用のほとんどを犯罪とする法律を制定しています。 ** ペンタゴンへのハッキング?それは犯罪です。銀行からお金を盗む?それは犯罪です。生物兵器を作る?それは犯罪です。テロ攻撃を実行しますか?それは犯罪です。私たちは、可能な場合はこれらの犯罪を防止し、できない場合は起訴することに集中する必要があります。新しい法律さえ必要ありません。すでに違法ではない AI の悪意のある使用で提起された実際の事件があるかどうかはわかりません。新たな悪質な使用が発見された場合は、それらの使用を禁止します。証明書が完成しました。

しかし、私が今言ったことにお気づきでしょう - 悪いことが起こる前に、まず AI を利用した犯罪の防止に重点を置くべきだと言いました - それは AI を禁止するという意味ではないでしょうか?このような行為を防ぐ別の方法は、AI を防御ツールとして使用することです。悪い目標を持つ悪い人々に力を与える同じ AI は、善良な人々、特に悪いことが起こらないようにする使命を負った善良な人々の手にかかれば、同様に強力です。

たとえば、人工知能が偽の人物や偽のビデオを生成することを心配している場合、その答えは、人々が暗号署名を通じて自分自身と本物のコンテンツを認証できる新しいシステムを構築することです。本物と偽物のコンテンツのデジタル作成と変更は、AI 以前から存在していました。その答えは、ワード プロセッサや Photoshop、つまり AI を禁止することではなく、テクノロジーを使用して実際に問題を解決するシステムを構築することです。

** 2 番目のアプローチは、無害で正当な防御目的で人工知能を積極的に使用しましょうということです。サイバー防衛、生物防衛、テロリストの追跡など、私たち自身、コミュニティ、国家を守るために行うすべてのことに AI を活用しましょう。 **

もちろん、政府の内外にすでにこの種の仕事に取り組んでいる多くの賢明な人々がいますが、人工知能の非効果的な禁止に焦点を当てた現在のすべての努力と知恵を、悪い人々が悪いことをするのを防ぐために人工知能を使用することに投入した場合、 , 人工知能があふれる世界 スマートな世界は、私たちが今住んでいる世界よりも安全になると信じています。

AI を最大のパワーとスピードで実装しない場合の本当のリスク

最後に、最も恐ろしいかもしれない本当の AI リスクが 1 つあります。

AIは比較的リベラルな西側社会だけでなく、中国でも悪用されている。

中国はAIに対して私たちとはまったく異なるビジョンを持っています。彼らはそれを秘密にすることさえせず、すでに目標を追求していることを明確にしています。また、彼らは AI 戦略を中国に限定するつもりはありません。5G ネットワークを提供し、一帯一路融資を提供し、集中制御およびコマンド AI フロントエンドとして TikTok のような消費者向けアプリを提供し、拡散する場所でそうするつもりです。それを世界の隅々まで。

**AI に対する最大のリスクは、中国が AI の世界的優位性を獲得する一方、米国や西側諸国がそれを獲得できないことです。 **

私はこの問題に対処するための簡単な戦略を提案します。実際、これはロナルド・レーガン大統領がソ連との第一次冷戦に勝利したときに採用した戦略です。

「私たちは勝ちますが、彼らは負けます。」

AI殺人者、有害なAI、雇用を破壊するAI、不平等を生み出すAIを巡る根拠のない恐怖によって後回しにされるのではなく、米国と西側諸国はAIに可能な限り全面的に投資すべきである。

私たちはAIの技術的優位性をめぐる世界的な競争と戦い、中国が勝たないようにする必要がある。

その過程で、経済的生産性と人間の可能性に対するAIの恩恵を最大化するために、できる限り迅速かつ精力的にAIを経済と社会に導入する必要があります。

これは、人工知能の現実のリスクを相殺し、私たちの生活様式が中国のビジョンに置き換えられないようにする最善の方法です。

**私たちは何をすべきか? **

私は簡単な計画を思いつきました。

• 大規模な AI 企業は、可能な限り迅速かつ積極的に AI を構築することを許可されるべきです - ただし、規制による独占を達成したり、政府に保護されたカルテルを形成したりしてはならず、AI が競争するリスクについての虚偽の主張から解放される必要があります。市場で。これにより、現代資本主義の宝石であるこれらの企業の驚くべき能力による技術的および社会的報酬が最大化されます。

**• 新興 AI 企業は、可能な限り迅速かつ積極的に AI を構築できるようにすべきです。 **大企業が政府から受けているような保護を受けるべきではなく、政府の援助も受けるべきではありません。彼らは競争することだけを許されるべきです。たとえ新興企業が成功しなくても、市場における彼らの存在が大企業の成功を継続的に動機付けることになるでしょう。そしていずれにせよ、私たちの経済と社会は勝者です。

**• オープンソース AI は自由に普及し、大手 AI 企業や新興企業と競争できるようにすべきです。 **オープンソースには規制上の障壁があってはなりません。たとえオープンソースが企業を魅了できなかったとしても、その広範な可用性は、人工知能を構築して使用する方法を学び、テクノロジーの未来の一部となり、自分が誰であろうと、誰であろうと、彼らがどれだけお金を持っていても、AIは彼らのために働いてくれるでしょう。

**• 悪意のある人物が AI を使用して悪いことをするリスクに対抗するために、政府は民間部門と協力して、潜在的なリスク領域のあらゆる側面に積極的に取り組み、AI を使用して社会の防御を最大化する必要があります。 **これは AI リスクに限定されるものではなく、栄養失調、病気、気候問題など、より一般的な問題も含まれます。 AI は問題解決のための非常に強力なツールとなり得るため、私たちは AI をそのように考える必要があります。

**• 中国が世界的な AI の優位性を達成するリスクを防ぐために、私たちは民間部門、科学研究機関、政府の力を最大限に活用して、世界規模で米国と西側の AI の絶対的な優位性を共同で促進する必要があります。 、そして最終的には中国でも同じことが当てはまります。私たちは勝ちますが、彼らは負けます。 **

これが人工知能を使って世界を救う方法です。

行動する時が来ました。

伝説と英雄

最後に 2 つの簡単なステートメントを述べます。

人工知能の開発は、コンピューターの発明と同時に 1940 年代に始まりました。ニューラル ネットワーク (今日の人工知能のアーキテクチャ) に関する最初の科学論文は 1943 年に発表されました。過去 80 年にわたり、AI 科学者の全世代が誕生し、学校に通い、働きましたが、多くの場合、私たちが現在得ている報酬を見ることなく亡くなってしまいました。彼らは皆、伝説です。

今日、パニックと悪者に対する悲観という壁にもかかわらず、ますます多くのエンジニアが増えており、その多くは若く、祖父母や曾祖父母が AI の背後にあるアイデアの作成に関わっている可能性もあります。彼らは無謀でも悪人でもないと思います。皆さん、彼らはヒーローです。私の会社と私は、できるだけ多くの彼らを喜んでサポートし、彼らと彼らの仕事を 100% サポートします。

**「何年にもわたって、ミレニアル主義者たちは、さまざまな兆候や前兆の解釈を通じて、そのような将来の出来事の正確なタイミングを予測しようと試みてきました。[現在、人工知能によるリスク予測は継続的に行われています。しかし、歴史的な予測はほとんど常に失敗に終わりました。 AI が人間を殺すという信頼できる証拠はありません] ** しかし、[AI リスク予測者の] 彼らのファンは通常、イベントが発生したときに [AI の将来における潜在的なリスク] に合わせて説明を修正しようとします。」

「AIリスク」カルトの人々は私の意見に同意しないかもしれないし、彼らは合理的で科学に基づいており、私は洗脳された信者だと主張するかもしれない。ただし、私は「人工知能が人類にとって決して脅威にならない」と主張しているわけではないことに注意してください。私が指摘しているのは、「AI が人類を滅ぼす」説を裏付ける証拠はこれまでのところ存在しないということです。カルト的なパニックや反応に陥るのではなく、入手可能な証拠に基づいて合理的な評価を下すべきです。

原文表示
内容は参考用であり、勧誘やオファーではありません。 投資、税務、または法律に関するアドバイスは提供されません。 リスク開示の詳細については、免責事項 を参照してください。
  • 報酬
  • 1
  • 共有
コメント
0/400
Don’tShortInABullvip
· 2023-06-07 08:20
本当に社会主義社会を実現できるのは人工知能だけだ、小学生の頃はそう思っていた
返信0
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGate.ioアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)