La única manera de que la inteligencia artificial (IA) no se convierta en un riesgo para la humanidad, como lo son una pandemia o una bomba nuclear, es por medio de restricciones globales que sean efectivas, advirtió un grupo de 350 ejecutivos, investigadores e ingenieros expertos en esta tecnología, entre los que se encuentran los líderes de OpenAI, Google DeepMind y Anthropic.
En un escrito de tan solo 22 palabras, los expertos aseguran que limitar las tecnologías de la IA debe ser una “prioridad global”, pues esta puede significar un riesgo de “extinción”.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, menciona el comunicado publicado por Center for AI Safety, una organización sin fines de lucro con sede en San Francisco.
Entre los integrantes de este grupo se encuentran Sam Altman (presidente ejecutivo de OpenAI), Demis Hassabis (creador de Google DeepMind) y Dario Amodei (fundador de Anthropc).
El Center for AI Safety ha realizado una recopilación de situaciones que exponen la manera en que IA podría utilizarse para fines nefarios. Algunos son de potencial aplicación actual, mientras que otros apuntan más hacia el futuro.
“Los actores maliciosos podrían reutilizar la IA para que sea altamente destructiva, presentando un riesgo existencial en sí mismo y aumentando la probabilidad de desestabilización política. Por ejemplo, los métodos de aprendizaje de refuerzo profundo se han aplicado al combate aéreo, y las herramientas de descubrimiento de drogas de aprendizaje automático podrían usarse para construir armas químicas”, menciona el informe sobre los riesgos de las tecnologías.
Hace apenas dos meses, importantes ejecutivos, científicos y humanistas, entre ellos el multimillonario Elon Musk, firmaron una carta más extensa en la que pedían detener el desarrollo de nuevas tecnologías hasta poder garantizar su seguridad total y evitar efectos nocivos.