La alerta sobre los riesgos de la inteligencia artificial empaña el primer aniversario de ChatGPT

Elon Musk, “preocupado” porque cree que la crisis de OpenAI se debió al descubrimiento de “algún elemento peligroso”

Elon Musk, en una imagen de archivo.

Elon Musk, en una imagen de archivo. / Gonzalo Fuentes

Rafa López

Rafa López

Quizá este 2023, próximo a terminar, quede para la historia como “el año que vivimos la inteligencia artificial peligrosamente”. El 30 de noviembre de 2022, la compañía estadounidense OpenAI lanzaba ChatGPT, la aplicación de chatbot de inteligencia artificial (IA) que al estar disponible de forma gratuita para cualquiera con conexión a internet –acumula ya 180 millones de usuarios– hizo que la humanidad tomase conciencia del rápido avance de esta tecnología, que lleva desarrollándose al menos desde 1950. De forma paralela al descubrimiento de las casi infinitas posibilidades de la inteligencia artificial generativa surgen también voces expertas que alertan sobre sus riesgos y amenazas.

El último en advertir sobre estos peligros ha sido el magnate Elon Musk, consejero delegado de Tesla y SpaceX, dueño de X (antes Twitter) y cofundador de OpenAI. En una entrevista en público organizada por “The New York Times”, Musk se mostró “bastante preocupado de que haya algún elemento peligroso de IA que hayan creado” en la compañía que él contribuyó a crear hace tan solo siete años.

El pasado 22 de noviembre, la agencia Reuters publicó en exclusiva que, cuatro días antes del despido –luego revocado– del consejero delegado de OpenAI, Sam Altman, varios investigadores de la compañía escribieron una carta a la junta directiva advirtiendo sobre un poderoso descubrimiento de inteligencia artificial que, según dijeron, podría suponer una amenaza para la humanidad.

decalogo IA W

decalogo IA W / Hugo Barreiro

Musk reconoció que tiene “sentimientos encontrados acerca de Sam [Altman]. El anillo de poder puede corromper, y él tiene el anillo de poder”. El propio Altman ha reconocido al portal de noticias tecnológicas “The Verge” que la información avanzada del nuevo modelo Q* respondió a una “filtración desafortunada”. Q* es un proyecto interno de OpenAI dedicado a la aplicación de la inteligencia artificial en el razonamiento lógico y matemático. Según algunos expertos, Q* se acercaría o alcanzaría el nivel de la llamada inteligencia artificial general (IAG), la inteligencia artificial que iguala o excede la inteligencia humana promedio. Con ella, una máquina podría realizar con éxito cualquier tarea intelectual propia de cualquier ser humano.

Elon Musk parece mostrarse abonado a la teoría según la cual Ilya Sutskever, cofundador e ingeniero jefe de OpenAI, advirtió internamente sobre un avance que supondría un enorme riesgo. Fue el propio Musk el que fichó a Sutskever para OpenAI. “Deberíamos preocuparnos por esto, porque creo que Ilya [Sutskever] tiene una fuerte brújula moral. Se preocupa por lo que es correcto. Y si Ilya sentía la fuerza suficiente para querer despedir a Sam [Altman], creo que el mundo debería saber cuál fue esa razón”, dijo Musk a su entrevistador.

Según su propio relato, Elon Musk quiso crear OpenAI como contrapeso ético a Google y su filial de inteligencia artificial, DeepMind, al darse cuenta de que a su amigo Larry Page, uno de los dos fundadores de Google junto a Serguéi Brin, “no le importaba la seguridad de la inteligencia artificial”. Fundó OpenAi para ser de código abierto, de ahí su nombre. “Ha pasado de ser una fundación de código abierto a convertirse de repente en una corporación con ánimo de lucro de 90.000 millones de dólares con código cerrado”, lamenta. Según algunas estimaciones, el valor de la industria de la IA podría alcanzar los 180.000 millones de euros en 2030.

En su entrevista en público con Andrew Ross Sorkin, columnista financiero de “The New York Times”, Musk aseguró que no se implicó en la IA desde el principio porque “no estaba seguro de qué filo del arma de doble filo sería más afilado, el bueno o el malo”, y que se decantó por “construir tecnología de energía sostenible” –los vehículos eléctricos Tesla– porque es un “arma de un solo filo, el filo bueno”.

Según se desprende de su relato, cuando fichó a Ilya Sutskever, Larry Page dejó de ser su amigo. Ha intentado contactar con Sutskever, pero “no quiere hablar con nadie”.

En un minidocumental publicado hace un mes por “The Guardian”, Sutskever opinaba que la inteligencia artificial general no tardaría en llegar, y que sería muy importante asegurarse de que esos “sistemas con capacidades muy inteligentes estuviesen alineados y actuasen en el interés de la humanidad”. Sutskever dejaba claro que la IAG resolvería los principales problemas de la sociedad, como el del empleo, pero crearía otros, como “fake news un millón de veces peores, ciberataques mucho más extremos, armas totalmente automatizadas por IA y el potencial para crear dictaduras infinitamente estables”.

Otra voz autorizada que ha mostrado su preocupación por el doble filo de la IA ha sido Eric Schmidt. Este antiguo consejero delegado de Google ha afirmado que las capacidades de la IA podrían poner en peligro a la humanidad dentro de cinco años y que las empresas no están haciendo lo suficiente para evitar los posibles daños. En declaraciones al portal Axios, Schmidt añadió que los peligros de la IA comienzan “cuando el ordenador puede empezar a tomar sus propias decisiones de hacer cosas”, como crear armas.

Suscríbete para seguir leyendo