Las firmas respaldan el control global, y los Tres Grandes de la IA filtraron el "deseo de supervivencia"

Los directores ejecutivos de OpenAI, Google DeepMind y Anthropic firmaron.

Escrito por: Katie

Otra carta abierta "llena de estrellas" que advierte sobre los riesgos de la IA está aquí. Esta carta es corta pero explosiva: mitigar el riesgo de extinción que plantea la IA debería ser lo mismo que gestionar otros riesgos a escala social, como las epidemias y la guerra nuclear. convertirse en una prioridad mundial.

El 30 de mayo, esta declaración con solo 22 palabras en el texto original apareció en el sitio web oficial de la organización estadounidense sin fines de lucro "Center for AI Safety", y más de 350 celebridades en los círculos empresariales y académicos de la IA el campo habló por ello.

En comparación con la carta abierta emitida por el "Instituto Futuro de la Vida" hace dos meses y medio, con miles de firmas que pedían una "suspensión de entrenamiento de modelos grandes durante 6 meses", lo más llamativo es que esta vez, OpenAI, Google DeepMind y el CEO de Anthropic firmaron.

Vale la pena señalar que antes de firmar la "declaración de 22 caracteres", los jefes de OpenAI, Google y Anthropic asistieron a la Conferencia de Gobernanza de Riesgos de IA iniciada por la Casa Blanca el 4 de mayo. Frente a la gestión de riesgos, los gigantes de la IA parecen estar más ansiosos que el gobierno recientemente.

Recientemente, los directores ejecutivos de estas tres empresas se han reunido con frecuencia con los líderes de muchos países europeos en un intento de influir en la "Ley de Inteligencia Artificial" de la UE en curso, la "tierra virgen" que el creador de mitos OpenAI aún no ha ganado.

Detrás de la búsqueda de controlar los riesgos de la IA está el "deseo de sobrevivir" del mercado completo de las empresas de IA.

Los tres grandes dejan sus nombres para la última declaración de riesgo de IA

「Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.」

22 palabras forman una parte de la "Declaración de riesgo de inteligencia artificial", que expresa directamente los riesgos que presenta la IA como "extinción", que es comparable en gravedad a las "pandemias" y la "guerra nuclear", la urgencia del control se expresó como "debería ser una prioridad mundial".

El 30 de mayo, según el comunicado publicado en el sitio web oficial de la organización sin fines de lucro "Center for AI Safety", más de 350 personas, incluidos científicos y líderes empresariales, firmaron sus nombres.

Los nombres de los CEOs de los AI Big Three aparecen en la lista

“Tenemos que salir a la luz sobre este tema porque mucha gente solo habla entre sí en silencio”, dijo Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la Inteligencia Artificial, sobre el propósito de la declaración. La declaración fue intencional para permitir una "coalición amplia" de científicos, algunos de los cuales aún no pueden ponerse de acuerdo sobre los riesgos que plantea la IA y las mejores soluciones para prevenirlos.

Las dos primeras de las 350 firmas fueron los ganadores del premio Turing Geoffrey Hinton y Youshua Bengio, seguidas por Demis Hassabis (Demis Hassabis, Sam Altman y Dario Amodei son los directores ejecutivos de Google DeepMind, OpenAI y Anthropic, tres empresas de desarrollo de inteligencia artificial de renombre mundial.

También firmaron algunos académicos chinos de renombre, como Zhang Yaqin, decano del Instituto de Industria Inteligente de la Universidad de Tsinghua, el profesor Zeng Yi del Instituto de Automatización de la Academia de Ciencias de China y Zhan Xianyuan, profesor asociado del Instituto de Industria Inteligente de la Universidad de Tsinghua.

Si "servir a la humanidad con conocimiento" se considera una responsabilidad social de los intelectuales, las firmas de expertos y académicos son fáciles de entender. Hinton, conocido como el "Padrino de la IA", renunció a Google en abril de este año y ha estado expresando su desaprobación en público desde entonces Preocupaciones sobre la inteligencia artificial fuera de control Bengio firmó la carta abierta "Pause on Giant AI Experiments" publicada por el Future of Life Institute sin fines de lucro en marzo de este año.

Sin embargo, en la carta de hace dos meses, los jefes de las tres empresas Google DeepMind, OpenAI y Anthropic no firmaron. En comparación con la "declaración de 22 caracteres" esta vez, la carta también explicaba el impacto potencial de la IA. riesgos específicos, e incluso dio principios claros de gestión de riesgos, hasta el momento se han recogido 31.810 firmas.

El claro desacuerdo en la comunidad de IA provocado por la última carta es si los experimentos de IA deben suspenderse o no por el riesgo.

En ese momento, Wu Enda, un estudioso en el campo de la inteligencia artificial, dijo en LinkedIn que la idea de suspender el entrenamiento de IA durante 6 meses era una idea mala y poco realista. Más tarde, el director ejecutivo de OpenAI, Sam Altman, Sam Altman, expresó la falta de sentido de la suspensión de manera más intuitiva: "Suspendemos por 6 meses, ¿luego qué? ¿Suspendemos por otros 6 meses?"

Pero esta vez, los líderes de los tres gigantes de las empresas de IA tomaron la iniciativa al firmar esta "declaración de 22 caracteres" con una redacción vaga pero severa sobre los riesgos. A partir de su reconocimiento de la declaración, revelaron la urgencia de controlar los riesgos de la IA.

En solo dos meses y medio, ¿qué hizo que las empresas de IA cambiaran de actitud?

El crecimiento del tráfico de OpenAI se ralentiza

Ahora, incluso si la IA no extingue a los seres humanos, la IA generativa ha revelado su "lado oscuro" impulsado por los perpetradores.

Por ejemplo, la imitación de sonido y apariencia de AI se utiliza como una herramienta de fraude, y la capacidad de AI para generar imágenes y texto no solo se usa para noticias falsas, sino que también crea "rumores amarillos" que dañan directamente la reputación de las personas comunes. .

En comparación con las "tonterías" de la IA generativa para el sentido común, caer en trampas lógicas, no ser bueno para resolver problemas matemáticos, privacidad y seguridad de datos y otros defectos, el poder destructivo de la IA que se muestra en los casos de las víctimas es más concreto e intuitivo. público. Para las empresas de desarrollo de IA, el impacto más directo es que aquellas empresas de desarrollo que acaban de abrir aplicaciones de IA al público, ¿cuánto mercado incremental pueden ganar en la opinión pública negativa?

Tomemos como ejemplo OpenAI, que proporciona la aplicación de generación de texto ChatGPT, que tiene el número de visitas de más rápido crecimiento. Las visitas a su página web han aumentado de aproximadamente 20 millones de veces por mes en el otoño del año pasado a 1.800 millones de veces en abril de 2023. refrescando el mito del crecimiento del tráfico de Internet. Pero según los datos recopilados por la firma de análisis web SimilarWeb, las visitas a la página web de OpenAI están creciendo a un ritmo más lento.

El crecimiento del tráfico web de OpenAI se ralentiza

La contribución de tráfico de las páginas web de OpenAI proviene principalmente de Estados Unidos, con un 10,25 %, seguido de India (8,82 %), Japón (7,48 %), Indonesia (3,84 %) y Canadá (3,06 %). el aumento de visitas desde Japón es el mayor, alcanzando el 28,86%. Sin embargo, Rusia, China y los países europeos básicamente no contribuyeron con ningún tráfico obvio, y los usuarios de Internet en estos países y regiones tienen acceso limitado a OpenAI.

OpenAI cortó estos mercados por sí mismo.La principal razón es que los países tienen diferentes políticas de gestión en Internet. En comparación con Rusia y China, Europa parece ser un mercado más deseable para las empresas de inteligencia artificial, sin embargo, la Unión Europea tiene una legislación claramente definida para la inteligencia artificial.

Desde entonces, los directores ejecutivos de OpenAI, DeepMind y Anthropic han aparecido en Europa.

Tres directores ejecutivos en Europa antes de la legislación de la UE

El 27 de abril, los miembros del Parlamento Europeo llegaron a un acuerdo político tentativo sobre una propuesta de Ley de Inteligencia Artificial. El 11 de mayo, dos comités del Parlamento Europeo adoptaron un borrador de mandato de negociación para la propuesta del Proyecto de Ley de Inteligencia Artificial (en adelante, el "Proyecto de Ley"). El borrador se presentará a la sesión plenaria del Parlamento Europeo para su votación del 12 al 15 de junio, después de lo cual el Parlamento Europeo negociará la forma final de la ley con el Consejo de la Unión Europea.

Los legisladores en el proyecto de ley clasificaron diferentes herramientas de IA según su nivel de riesgo, de mínimo a limitado, alto e inaceptable. Las agencias gubernamentales y las empresas que utilicen estas herramientas tendrán diferentes obligaciones según el nivel de riesgo. El proyecto de ley también prohibirá estrictamente los "sistemas de inteligencia artificial que presenten riesgos inaceptables para la seguridad humana", incluidos los sistemas que manipulan deliberadamente la tecnología, explotan las debilidades humanas o realizan evaluaciones basadas en el comportamiento, el estatus social y las características personales.

Si la "Ley" se promulga con éxito, esta será la primera ley dirigida a la inteligencia artificial en la historia de la humanidad. Dado que la "Ley" se aplica a todos los sistemas de inteligencia artificial que operan en la Unión Europea, las empresas estadounidenses que lideran la tecnología de inteligencia artificial obviamente se verán limitadas si desean ingresar al mercado europeo.

Por ejemplo, la Ley exige que las empresas que desarrollan herramientas de inteligencia artificial generativa divulguen si utilizan material protegido por derechos de autor en sus sistemas. Para las empresas de IA que entrenan modelos grandes con grandes cantidades de datos de varias fuentes, este requisito simplemente los mantendrá fuera de Europa.

OpenAI, DeepMind y Anthropic han comenzado a prestar atención a las tendencias europeas.

A fines de mayo, el CEO de OpenAI, Sam Altman, viajó varias veces a Europa y mantuvo conversaciones con los jefes de gobierno de España, Polonia, Francia y el Reino Unido para discutir el potencial de desarrollo, las amenazas y la regulación de la inteligencia artificial. El director ejecutivo de DeepMind, Demis Hassabis, y el director ejecutivo de Anthropic, Dario Amoudi, también se reunieron con el primer ministro británico, Sunak.

El primer ministro británico Sunak se reúne con los directores ejecutivos de AI Big Three

Al comunicarse con los jefes de estado europeos, las empresas de tecnología de IA intentan influir en el proceso de la Ley. Más que eso, Sam Altman también utilizó varios métodos, como discursos y entrevistas, para hablar al público europeo, con la esperanza de que la "opinión pública" los apoyara.

En un discurso en el University College London, Altman se mantuvo firme: las preocupaciones de la gente sobre la IA son válidas, pero los beneficios potenciales de la IA son mucho mayores. Cuando se trata de la regulación de IA, Altman dijo que OpenAI da la bienvenida a la regulación, pero necesita "la forma correcta de regularla" porque "la regulación excesiva puede dañar a las pequeñas empresas y al movimiento de código abierto".

El 25 de mayo, Altman expresó su opinión sobre la "Ley" a los medios británicos. "Muchas expresiones son inapropiadas". Él cree que el actual proyecto de ley de IA de la UE provocará una regulación excesiva, "pero escuchamos que dijo que se ajustaría, y todavía están hablando de eso".

Falta menos de medio mes para la votación final del "Proyecto de Ley", y la "gira de cabildeo" de Altman aún continúa. Según información pública, Altman se reunirá próximamente con el jefe de la industria de la UE, Thierry Breton (Thierry Breton), para discutir cómo la UE debería implementar reglas que lideren al mundo en inteligencia artificial.

Después de una serie de viajes europeos, los tres directores ejecutivos de AI Big Three firmaron la "declaración de 22 caracteres", coincidiendo con la declaración de que la prioridad global para controlar los riesgos de AI se establece en la declaración. Detrás del gesto está el "deseo de sobrevivir" de las empresas de IA que intentan expandir el mercado bajo control.

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)