実際、近年 AI コミュニティが AI モデルのパラメータサイズを増加させているため、多くの人がそのような噂を信じて広めています。 Googleが2021年1月にリリースしたSwitch Transformerは、AI大型モデルのパラメータを1兆6000億まで引き上げた。それ以来、多くの機関が独自の数兆パラメータの大規模モデルを次々と立ち上げてきました。これに基づいて、人々は GPT-4 が数兆のパラメーターを持つ巨大なモデルになると信じるのに十分な理由があり、100 兆のパラメーターを使用することも不可能ではありません。
Sam Altman 氏の噂は誤った答えを取り除くのに役立ちましたが、彼の背後にある OpenAI チームは GPT-4 の実際のパラメータについては口を閉ざしており、GPT-4 の公式技術レポートでさえ情報を開示していませんでした。
GPT-4 は 8x2200 億パラメータの混合モデルですか?今日はこのゴシップがおかしくなった
出典: ハート・オブ・ザ・マシン
「GPT-4のパラメータ量は100兆にも及ぶ」 今年初めに画面を駆け巡った「重い」ニュースと、バイラルに拡散したチャートをまだ覚えている人も多いのではないだろうか。
実際、近年 AI コミュニティが AI モデルのパラメータサイズを増加させているため、多くの人がそのような噂を信じて広めています。 Googleが2021年1月にリリースしたSwitch Transformerは、AI大型モデルのパラメータを1兆6000億まで引き上げた。それ以来、多くの機関が独自の数兆パラメータの大規模モデルを次々と立ち上げてきました。これに基づいて、人々は GPT-4 が数兆のパラメーターを持つ巨大なモデルになると信じるのに十分な理由があり、100 兆のパラメーターを使用することも不可能ではありません。
Sam Altman 氏の噂は誤った答えを取り除くのに役立ちましたが、彼の背後にある OpenAI チームは GPT-4 の実際のパラメータについては口を閉ざしており、GPT-4 の公式技術レポートでさえ情報を開示していませんでした。
最近まで、この謎は「天才ハッカー」ジョージ・ホッツによって解明されたのではないかと疑われていました。
ジョージ・ホッツは、17 歳で iPhone をクラッキングし、21 歳でソニー PS3 をハッキングしたことで有名です。彼は現在、自動運転支援システムを開発する会社 (comma.ai) の社長です。
彼は最近、Latent Space と呼ばれる AI テクノロジー ポッドキャストのインタビューを受けました。インタビューの中で彼はGPT-4について語り、GPT-4は実はハイブリッドモデルであると語った。具体的には、それぞれ 2,200 億個のパラメーター (GPT-3 の 1,750 億個のパラメーターよりわずかに多い) を持つ 8 つのエキスパート モデルのアンサンブル システムを使用しており、これらのモデルはさまざまなデータとタスク分散トレーニングでトレーニングされています。
将来の傾向については、人々は長期にわたる微調整やさまざまなトリックの発見を通じて、より小さなモデルをトレーニングし、パフォーマンスを向上させるだろうと彼は考えています。同氏は、以前と比較して、コンピューティングリソースは変わらないにもかかわらず、トレーニング効果が大幅に向上していると述べ、トレーニング方法の改善が大きな役割を果たしていることがわかりました。
現在、George Hotz 氏による GPT-4 に関する「速報」が Twitter 上で広く拡散されています。