Les PDG d'OpenAI, Google DeepMind et Anthropic ont tous signé.
Écrit par : Katie
Une autre lettre ouverte « étoilée » avertissant des risques de l'IA est ici. Cette lettre est courte mais explosive : atténuer le risque d'extinction posé par l'IA devrait être la même chose que gérer d'autres risques à l'échelle sociale tels que les épidémies et la guerre nucléaire. devenir une priorité mondiale.
Le 30 mai, cette déclaration avec seulement 22 mots dans le texte original est apparue sur le site officiel de l'organisation américaine à but non lucratif "Center for AI Safety", et plus de 350 célébrités des milieux commerciaux et universitaires de l'IA le champ a parlé pour lui.
Par rapport à la lettre ouverte émise par le "Future of Life Institute" il y a deux mois et demi, avec des milliers de signatures réclamant une "suspension de l'entraînement des grands modèles pendant 6 mois", le plus accrocheur est que cette fois, OpenAI, Google DeepMind et le PDG d'Anthropic ont signé.
Il est à noter qu'avant de signer la "déclaration en 22 caractères", les responsables d'OpenAI, de Google et d'Anthropic ont tous assisté à la conférence sur la gouvernance des risques liés à l'IA initiée par la Maison Blanche le 4 mai. Face à la gestion des risques, les géants de l'IA semblent plus anxieux que le gouvernement ces derniers temps.
Récemment, les PDG de ces trois entreprises ont fréquemment rencontré les dirigeants de nombreux pays européens pour tenter d'influencer la "loi sur l'intelligence artificielle" de l'UE, la "terre vierge" que le faiseur de mythes OpenAI n'a pas encore gagnée.
Derrière la nécessité de gérer et de contrôler les risques liés à l'IA se cache le « désir de survie » du marché des entreprises d'IA.
Les Trois Grands laissent leurs noms pour la dernière déclaration sur les risques liés à l'IA
« Atténuer le risque d'extinction dû à l'IA devrait être une priorité mondiale aux côtés d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire. »
22 mots forment un morceau de "Déclaration de risque d'intelligence artificielle", qualifiant directement les risques apportés par l'IA d'"extinction", qui est comparable en gravité aux "pandémies" et à la "guerre nucléaire", l'urgence du contrôle a été exprimée comme "devrait être une priorité mondiale ».
Le 30 mai, en vertu de la déclaration publiée sur le site officiel de l'organisation à but non lucratif "Center for AI Safety", plus de 350 personnes, dont des scientifiques et des chefs d'entreprise, ont signé leur nom.
Les noms des PDG des AI Big Three apparaissent dans la liste
"Nous devons parler ouvertement de cette question car beaucoup de gens ne se parlent qu'en silence", a déclaré Dan Hendrycks, directeur exécutif du Center for Artificial Intelligence Safety, à propos de l'objectif de la déclaration. La déclaration était intentionnelle pour permettre une "large coalition" de scientifiques, dont certains ne sont peut-être pas encore d'accord sur les risques que pose l'IA et les meilleures solutions pour les prévenir.
Les deux premiers des 350 signatures étaient les lauréats du prix Turing Geoffrey Hinton et Youshua Bengio, suivis de Demis Hassabis (Demis Hassabis, Sam Altman et Dario Amodei sont les PDG de Google DeepMind, OpenAI et Anthropic, trois sociétés de développement d'intelligence artificielle de renommée mondiale.
Certains universitaires chinois bien connus ont également signé, tels que Zhang Yaqin, doyen de l'Institut de l'industrie intelligente de l'Université Tsinghua, le professeur Zeng Yi de l'Institut d'automatisation de l'Académie chinoise des sciences et Zhan Xianyuan, professeur associé de l'Institut de Industrie intelligente de l'Université Tsinghua.
Si "servir l'humanité avec la connaissance" est considéré comme la responsabilité sociale des intellectuels, les signatures des experts et des universitaires sont faciles à comprendre. Hinton, connu comme le "parrain de l'IA", a démissionné de Google en avril de cette année, et a exprimé sa désapprobation en public depuis lors.Inquiétudes concernant l'intelligence artificielle devenant incontrôlable ; Bengio a signé la lettre ouverte "Pause on Giant AI Experiments" publiée par l'Institut à but non lucratif Future of Life en mars de cette année.
Cependant, dans la lettre d'il y a deux mois, les dirigeants des trois sociétés Google DeepMind, OpenAI et Anthropic n'ont pas signé.Par rapport à la "déclaration en 22 caractères" cette fois, la lettre a également élaboré sur l'impact potentiel de l'IA. risques spécifiques, et a même donné des principes clairs de gestion des risques, à ce jour, 31 810 signatures ont été recueillies.
Le désaccord clair au sein de la communauté de l'IA suscité par la dernière lettre est de savoir si les expériences d'IA doivent ou non être suspendues pour des raisons de risque.
À cette époque, Wu Enda, un universitaire dans le domaine de l'intelligence artificielle, a déclaré sur LinkedIn que l'idée de suspendre la formation à l'IA pendant 6 mois était une mauvaise idée et irréaliste. Plus tard, le PDG d'OpenAI, Sam Altman, Sam Altman, a exprimé le non-sens de la suspension de manière plus intuitive : "Nous suspendons pendant 6 mois, puis quoi ? Nous suspendons encore 6 mois ?"
Mais cette fois, les dirigeants des trois géants de l'IA ont pris les devants en signant cette "déclaration en 22 caractères" aux termes vagues mais sévères sur les risques, révélant dès leur prise de connaissance l'urgence de maîtriser les risques liés à l'IA.
En seulement deux mois et demi, qu'est-ce qui a poussé les entreprises d'IA à changer d'attitude ?
La croissance du trafic OpenAI ralentit
Maintenant, même si les êtres humains ne sont pas éteints par l'IA, l'IA générative a révélé son "côté obscur" dirigé par les auteurs.
Par exemple, l'imitation du son et de l'apparence par l'IA est utilisée comme outil de fraude, et la capacité de l'IA à générer des images et du texte n'est pas seulement utilisée pour fausser les nouvelles, mais crée également des "rumeurs jaunes" qui nuisent directement à la réputation des individus ordinaires. .
Comparé au «non-sens» de l'IA générative au bon sens, tombant dans des pièges logiques, n'étant pas doué pour résoudre les problèmes mathématiques, la confidentialité et la sécurité des données et d'autres défauts, le pouvoir destructeur de l'IA montré dans les cas des victimes est plus concret et intuitivement présenté au public. Pour les sociétés de développement d'IA, l'impact le plus direct est que les sociétés de développement qui viennent d'ouvrir des applications d'IA au public, combien de marché supplémentaire peuvent-elles gagner dans l'opinion publique négative ?
Prenons l'exemple d'OpenAI, qui fournit l'application de génération de texte ChatGPT, dont le nombre de visites augmente le plus rapidement.Ses visites de pages Web sont passées d'environ 20 millions de fois par mois à l'automne de l'année dernière à 1,8 milliard de fois en avril 2023, rafraîchir le mythe de la croissance du trafic Internet. . Mais selon les données recueillies par la société d'analyse Web SimilarWeb, les visites de pages Web d'OpenAI augmentent à un rythme plus lent.
La croissance du trafic Web d'OpenAI ralentit
La contribution au trafic des pages Web OpenAI provient principalement des États-Unis, représentant 10,25 %, suivis de l'Inde (8,82 %), du Japon (7,48 %), de l'Indonésie (3,84 %) et du Canada (3,06 %). l'augmentation des visites en provenance du Japon est la plus importante, atteignant 28,86 %. Cependant, la Russie, la Chine et les pays européens n'y ont fondamentalement pas contribué de trafic évident, et les internautes de ces pays et régions ont un accès limité à OpenAI.
OpenAI s'est coupé de lui-même ces marchés, principalement parce que les pays ont des politiques de gestion différentes sur Internet. Par rapport à la Russie et à la Chine, l'Europe semble être un marché plus attrayant pour les entreprises d'intelligence artificielle, mais l'Union européenne a une législation clairement définie pour l'intelligence artificielle.
Depuis lors, les PDG d'OpenAI, DeepMind et Anthropic sont tous apparus en Europe.
Trois PDG en Europe avant la législation européenne
Le 27 avril, les membres du Parlement européen sont parvenus à un accord politique provisoire sur une proposition de loi sur l'intelligence artificielle. Le 11 mai, deux commissions du Parlement européen ont adopté un projet de mandat de négociation pour la proposition de projet de loi sur l'intelligence artificielle (ci-après dénommé le "projet de loi"). Le projet sera soumis à la session plénière du Parlement européen pour un vote du 12 au 15 juin, après quoi le Parlement européen négociera la forme finale de la loi avec le Conseil de l'Union européenne.
Les législateurs du projet de loi ont classé différents outils d'IA en fonction de leur niveau de risque, de minime à limité, élevé et inacceptable. Les agences gouvernementales et les entreprises utilisant ces outils auront des obligations différentes selon le niveau de risque. Le projet de loi interdira également strictement "les systèmes d'intelligence artificielle qui présentent des risques inacceptables pour la sécurité humaine", y compris les systèmes qui manipulent délibérément la technologie, exploitent les faiblesses humaines ou effectuent des évaluations basées sur le comportement, le statut social et les caractéristiques personnelles.
Si la "loi" est promulguée avec succès, ce sera la première loi ciblant l'intelligence artificielle dans l'histoire de l'humanité. Étant donné que la "loi" s'applique à tous les systèmes d'intelligence artificielle opérant dans l'Union européenne, les entreprises américaines à la pointe de la technologie de l'IA seront évidemment contraintes si elles veulent entrer sur le marché européen.
Par exemple, la loi oblige les entreprises développant des outils d'IA générative à divulguer si elles utilisent du matériel protégé par le droit d'auteur dans leurs systèmes. Pour les entreprises d'IA qui forment de grands modèles avec de grandes quantités de données provenant de diverses sources, cette exigence les empêchera simplement d'entrer en Europe.
OpenAI, DeepMind et Anthropic ont tous commencé à prêter attention aux tendances européennes.
Fin mai, le PDG d'OpenAI, Sam Altman, s'est rendu plusieurs fois en Europe et s'est entretenu avec les chefs de gouvernement espagnol, polonais, français et britannique pour discuter du potentiel de développement, des menaces et de la réglementation de l'intelligence artificielle. Demis Hassabis, PDG de DeepMind, et Dario Amoudi, PDG d'Anthropic, ont également rencontré le Premier ministre britannique Sunak.
Le Premier ministre britannique Sunak rencontre les PDG des AI Big Three
En communiquant avec les chefs d'État européens, les entreprises de technologie de l'IA tentent d'influencer le processus de la loi. Plus que cela, Sam Altman a également utilisé diverses méthodes telles que des discours et des interviews pour s'adresser au public européen, espérant que "l'opinion publique" serait avec eux.
Dans un discours prononcé à l'University College de Londres, Altman est resté fidèle à son propos : les préoccupations des gens concernant l'IA sont valables, mais les avantages potentiels de l'IA sont bien plus importants. En ce qui concerne la réglementation de l'IA, Altman a déclaré qu'OpenAI accueille favorablement la réglementation, mais a besoin "du bon type de réglementation" car "une réglementation excessive peut nuire aux petites entreprises et au mouvement open source".
Le 25 mai, Altman a exprimé son point de vue sur la "loi" aux médias britanniques. "Beaucoup de formulations sont inappropriées." Il estime que l'actuel projet de loi de l'UE sur l'IA entraînera une réglementation excessive, "mais nous écoutons Said, il serait ajusté, et ils en parlent encore."
Il reste moins d'un demi-mois avant le vote final sur le "projet de loi", la "tournée de lobbying" d'Altman est toujours en cours. Selon des informations publiques, Altman rencontrera ensuite le chef de l'industrie européenne Thierry Breton (Thierry Breton) pour discuter de la manière dont l'UE devrait mettre en œuvre des règles qui dominent le monde en matière d'intelligence artificielle.
Après une série de voyages européens, les trois PDG des AI Big Three ont signé la "déclaration en 22 caractères", en accord avec la déclaration selon laquelle la priorité mondiale de contrôle des risques liés à l'IA est énoncée dans la déclaration. Derrière le geste se cache le "désir de survie" des entreprises d'IA qui tentent d'étendre le marché sous contrôle.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Les signatures prennent en charge le contrôle global et les AI Big Three ont divulgué un "désir de survie"
Écrit par : Katie
Une autre lettre ouverte « étoilée » avertissant des risques de l'IA est ici. Cette lettre est courte mais explosive : atténuer le risque d'extinction posé par l'IA devrait être la même chose que gérer d'autres risques à l'échelle sociale tels que les épidémies et la guerre nucléaire. devenir une priorité mondiale.
Le 30 mai, cette déclaration avec seulement 22 mots dans le texte original est apparue sur le site officiel de l'organisation américaine à but non lucratif "Center for AI Safety", et plus de 350 célébrités des milieux commerciaux et universitaires de l'IA le champ a parlé pour lui.
Par rapport à la lettre ouverte émise par le "Future of Life Institute" il y a deux mois et demi, avec des milliers de signatures réclamant une "suspension de l'entraînement des grands modèles pendant 6 mois", le plus accrocheur est que cette fois, OpenAI, Google DeepMind et le PDG d'Anthropic ont signé.
Il est à noter qu'avant de signer la "déclaration en 22 caractères", les responsables d'OpenAI, de Google et d'Anthropic ont tous assisté à la conférence sur la gouvernance des risques liés à l'IA initiée par la Maison Blanche le 4 mai. Face à la gestion des risques, les géants de l'IA semblent plus anxieux que le gouvernement ces derniers temps.
Récemment, les PDG de ces trois entreprises ont fréquemment rencontré les dirigeants de nombreux pays européens pour tenter d'influencer la "loi sur l'intelligence artificielle" de l'UE, la "terre vierge" que le faiseur de mythes OpenAI n'a pas encore gagnée.
Derrière la nécessité de gérer et de contrôler les risques liés à l'IA se cache le « désir de survie » du marché des entreprises d'IA.
Les Trois Grands laissent leurs noms pour la dernière déclaration sur les risques liés à l'IA
« Atténuer le risque d'extinction dû à l'IA devrait être une priorité mondiale aux côtés d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire. »
22 mots forment un morceau de "Déclaration de risque d'intelligence artificielle", qualifiant directement les risques apportés par l'IA d'"extinction", qui est comparable en gravité aux "pandémies" et à la "guerre nucléaire", l'urgence du contrôle a été exprimée comme "devrait être une priorité mondiale ».
Le 30 mai, en vertu de la déclaration publiée sur le site officiel de l'organisation à but non lucratif "Center for AI Safety", plus de 350 personnes, dont des scientifiques et des chefs d'entreprise, ont signé leur nom.
Les noms des PDG des AI Big Three apparaissent dans la liste
"Nous devons parler ouvertement de cette question car beaucoup de gens ne se parlent qu'en silence", a déclaré Dan Hendrycks, directeur exécutif du Center for Artificial Intelligence Safety, à propos de l'objectif de la déclaration. La déclaration était intentionnelle pour permettre une "large coalition" de scientifiques, dont certains ne sont peut-être pas encore d'accord sur les risques que pose l'IA et les meilleures solutions pour les prévenir.
Les deux premiers des 350 signatures étaient les lauréats du prix Turing Geoffrey Hinton et Youshua Bengio, suivis de Demis Hassabis (Demis Hassabis, Sam Altman et Dario Amodei sont les PDG de Google DeepMind, OpenAI et Anthropic, trois sociétés de développement d'intelligence artificielle de renommée mondiale.
Certains universitaires chinois bien connus ont également signé, tels que Zhang Yaqin, doyen de l'Institut de l'industrie intelligente de l'Université Tsinghua, le professeur Zeng Yi de l'Institut d'automatisation de l'Académie chinoise des sciences et Zhan Xianyuan, professeur associé de l'Institut de Industrie intelligente de l'Université Tsinghua.
Si "servir l'humanité avec la connaissance" est considéré comme la responsabilité sociale des intellectuels, les signatures des experts et des universitaires sont faciles à comprendre. Hinton, connu comme le "parrain de l'IA", a démissionné de Google en avril de cette année, et a exprimé sa désapprobation en public depuis lors.Inquiétudes concernant l'intelligence artificielle devenant incontrôlable ; Bengio a signé la lettre ouverte "Pause on Giant AI Experiments" publiée par l'Institut à but non lucratif Future of Life en mars de cette année.
Cependant, dans la lettre d'il y a deux mois, les dirigeants des trois sociétés Google DeepMind, OpenAI et Anthropic n'ont pas signé.Par rapport à la "déclaration en 22 caractères" cette fois, la lettre a également élaboré sur l'impact potentiel de l'IA. risques spécifiques, et a même donné des principes clairs de gestion des risques, à ce jour, 31 810 signatures ont été recueillies.
Le désaccord clair au sein de la communauté de l'IA suscité par la dernière lettre est de savoir si les expériences d'IA doivent ou non être suspendues pour des raisons de risque.
À cette époque, Wu Enda, un universitaire dans le domaine de l'intelligence artificielle, a déclaré sur LinkedIn que l'idée de suspendre la formation à l'IA pendant 6 mois était une mauvaise idée et irréaliste. Plus tard, le PDG d'OpenAI, Sam Altman, Sam Altman, a exprimé le non-sens de la suspension de manière plus intuitive : "Nous suspendons pendant 6 mois, puis quoi ? Nous suspendons encore 6 mois ?"
Mais cette fois, les dirigeants des trois géants de l'IA ont pris les devants en signant cette "déclaration en 22 caractères" aux termes vagues mais sévères sur les risques, révélant dès leur prise de connaissance l'urgence de maîtriser les risques liés à l'IA.
En seulement deux mois et demi, qu'est-ce qui a poussé les entreprises d'IA à changer d'attitude ?
La croissance du trafic OpenAI ralentit
Maintenant, même si les êtres humains ne sont pas éteints par l'IA, l'IA générative a révélé son "côté obscur" dirigé par les auteurs.
Par exemple, l'imitation du son et de l'apparence par l'IA est utilisée comme outil de fraude, et la capacité de l'IA à générer des images et du texte n'est pas seulement utilisée pour fausser les nouvelles, mais crée également des "rumeurs jaunes" qui nuisent directement à la réputation des individus ordinaires. .
Comparé au «non-sens» de l'IA générative au bon sens, tombant dans des pièges logiques, n'étant pas doué pour résoudre les problèmes mathématiques, la confidentialité et la sécurité des données et d'autres défauts, le pouvoir destructeur de l'IA montré dans les cas des victimes est plus concret et intuitivement présenté au public. Pour les sociétés de développement d'IA, l'impact le plus direct est que les sociétés de développement qui viennent d'ouvrir des applications d'IA au public, combien de marché supplémentaire peuvent-elles gagner dans l'opinion publique négative ?
Prenons l'exemple d'OpenAI, qui fournit l'application de génération de texte ChatGPT, dont le nombre de visites augmente le plus rapidement.Ses visites de pages Web sont passées d'environ 20 millions de fois par mois à l'automne de l'année dernière à 1,8 milliard de fois en avril 2023, rafraîchir le mythe de la croissance du trafic Internet. . Mais selon les données recueillies par la société d'analyse Web SimilarWeb, les visites de pages Web d'OpenAI augmentent à un rythme plus lent.
La croissance du trafic Web d'OpenAI ralentit
La contribution au trafic des pages Web OpenAI provient principalement des États-Unis, représentant 10,25 %, suivis de l'Inde (8,82 %), du Japon (7,48 %), de l'Indonésie (3,84 %) et du Canada (3,06 %). l'augmentation des visites en provenance du Japon est la plus importante, atteignant 28,86 %. Cependant, la Russie, la Chine et les pays européens n'y ont fondamentalement pas contribué de trafic évident, et les internautes de ces pays et régions ont un accès limité à OpenAI.
OpenAI s'est coupé de lui-même ces marchés, principalement parce que les pays ont des politiques de gestion différentes sur Internet. Par rapport à la Russie et à la Chine, l'Europe semble être un marché plus attrayant pour les entreprises d'intelligence artificielle, mais l'Union européenne a une législation clairement définie pour l'intelligence artificielle.
Depuis lors, les PDG d'OpenAI, DeepMind et Anthropic sont tous apparus en Europe.
Trois PDG en Europe avant la législation européenne
Le 27 avril, les membres du Parlement européen sont parvenus à un accord politique provisoire sur une proposition de loi sur l'intelligence artificielle. Le 11 mai, deux commissions du Parlement européen ont adopté un projet de mandat de négociation pour la proposition de projet de loi sur l'intelligence artificielle (ci-après dénommé le "projet de loi"). Le projet sera soumis à la session plénière du Parlement européen pour un vote du 12 au 15 juin, après quoi le Parlement européen négociera la forme finale de la loi avec le Conseil de l'Union européenne.
Les législateurs du projet de loi ont classé différents outils d'IA en fonction de leur niveau de risque, de minime à limité, élevé et inacceptable. Les agences gouvernementales et les entreprises utilisant ces outils auront des obligations différentes selon le niveau de risque. Le projet de loi interdira également strictement "les systèmes d'intelligence artificielle qui présentent des risques inacceptables pour la sécurité humaine", y compris les systèmes qui manipulent délibérément la technologie, exploitent les faiblesses humaines ou effectuent des évaluations basées sur le comportement, le statut social et les caractéristiques personnelles.
Si la "loi" est promulguée avec succès, ce sera la première loi ciblant l'intelligence artificielle dans l'histoire de l'humanité. Étant donné que la "loi" s'applique à tous les systèmes d'intelligence artificielle opérant dans l'Union européenne, les entreprises américaines à la pointe de la technologie de l'IA seront évidemment contraintes si elles veulent entrer sur le marché européen.
Par exemple, la loi oblige les entreprises développant des outils d'IA générative à divulguer si elles utilisent du matériel protégé par le droit d'auteur dans leurs systèmes. Pour les entreprises d'IA qui forment de grands modèles avec de grandes quantités de données provenant de diverses sources, cette exigence les empêchera simplement d'entrer en Europe.
OpenAI, DeepMind et Anthropic ont tous commencé à prêter attention aux tendances européennes.
Fin mai, le PDG d'OpenAI, Sam Altman, s'est rendu plusieurs fois en Europe et s'est entretenu avec les chefs de gouvernement espagnol, polonais, français et britannique pour discuter du potentiel de développement, des menaces et de la réglementation de l'intelligence artificielle. Demis Hassabis, PDG de DeepMind, et Dario Amoudi, PDG d'Anthropic, ont également rencontré le Premier ministre britannique Sunak.
Le Premier ministre britannique Sunak rencontre les PDG des AI Big Three
En communiquant avec les chefs d'État européens, les entreprises de technologie de l'IA tentent d'influencer le processus de la loi. Plus que cela, Sam Altman a également utilisé diverses méthodes telles que des discours et des interviews pour s'adresser au public européen, espérant que "l'opinion publique" serait avec eux.
Dans un discours prononcé à l'University College de Londres, Altman est resté fidèle à son propos : les préoccupations des gens concernant l'IA sont valables, mais les avantages potentiels de l'IA sont bien plus importants. En ce qui concerne la réglementation de l'IA, Altman a déclaré qu'OpenAI accueille favorablement la réglementation, mais a besoin "du bon type de réglementation" car "une réglementation excessive peut nuire aux petites entreprises et au mouvement open source".
Le 25 mai, Altman a exprimé son point de vue sur la "loi" aux médias britanniques. "Beaucoup de formulations sont inappropriées." Il estime que l'actuel projet de loi de l'UE sur l'IA entraînera une réglementation excessive, "mais nous écoutons Said, il serait ajusté, et ils en parlent encore."
Il reste moins d'un demi-mois avant le vote final sur le "projet de loi", la "tournée de lobbying" d'Altman est toujours en cours. Selon des informations publiques, Altman rencontrera ensuite le chef de l'industrie européenne Thierry Breton (Thierry Breton) pour discuter de la manière dont l'UE devrait mettre en œuvre des règles qui dominent le monde en matière d'intelligence artificielle.
Après une série de voyages européens, les trois PDG des AI Big Three ont signé la "déclaration en 22 caractères", en accord avec la déclaration selon laquelle la priorité mondiale de contrôle des risques liés à l'IA est énoncée dans la déclaration. Derrière le geste se cache le "désir de survie" des entreprises d'IA qui tentent d'étendre le marché sous contrôle.