Los Peligros de la IA según los Expertos.

Geoffrey Hinton

En este artículo conoceremos las advertencias de cinco grandes nombres del campo de la IA. Hombres que han pasado de construir los cimientos del futuro a levantar vallas para que ese futuro no nos devore.

Por primera vez estamos ante una tecnología que no controlamos. Hasta ahora cuando nosotros inventábamos cualquier tecnología la dominábamos de principio a fin. Con la IA esto no es posible, porque ni siquiera los que han creado el llamado Aprendizaje automático y el Deep learning, reconocen que cuando el algoritmo de aprendizaje interactúa con los datos, produce redes neuronales cuyo funcionamiento interno no comprendemos, ni siquiera por aquellos que han creado esos algoritmos. Es lo que se conoce como la caja negra de la IA. Es decir, hasta ahora cuando un programador creaba un software “tradicional”, aquello que había programado era lo que obtenía como resultado, no había sorpresas, el control estaba en manos del programador. Con la IA no es así, ya que una vez creado los algoritmos y entrenados, los resultados escapan a la comprensión y control de sus programadores. La principal ventaja de la IA que es su aprendizaje automático, ya que no necesitamos programarla constantemente sino que aprende y actúa de forma autónoma, es también su principal contra, ya que no podemos controlarla.

Lo curioso es que todos los expertos llegan a la misma conclusión: la IA nos puede superar, controlar y quién sabe si dominar. Si esto lo dicen todos, es porque todos conocen bien el potencial que tiene esta tecnología. Y seguro que muchos de ellos ya han visto hasta donde es capaz de llegar la IA y, por tanto, sus peligros. Lo que más nos sorprende no es que ellos vean que con la IA el ser humano puede hacer cosas muy negativas, que también, sino todos tiene miedo no tanto a lo que pueda hacer el ser humano con una herramienta o tecnología como la IA, sino en el poder que tiene la propia IA de llegar a ser muy superior al ser humano y todos tienen claro que llegaremos a ese estado, y lo que puede suponer que las máquinas nos acaben dominado en un futuro no muy lejano.

Geoffrey Hinton: el “padrino de la IA”

Conocido universalmente como el «Padrino de la IA», Geoffrey Hinton es un psicólogo cognitivo y científico de la computación británico-canadiense, galardonado con el Premio Turing (el «Nobel de la computación») en 2018 por su trabajo pionero en redes neuronales y con el Premio Nobel de Física de 2024 junto con John Hopfield por sus descubrimientos fundamentales e invenciones en redes neuronales artificiales. Durante una década, fue vicepresidente e investigador en Google. En mayo de 2023, Hinton sorprendió al renunciar a Google para poder «hablar libremente» sobre los riesgos de la IA.

En una entrevista reveladora con CBS News, Hinton expresó su preocupación de que «por primera vez en la historia, podemos tener cosas más inteligentes que nosotros». Según él, «la gente no ha comprendido lo que se avecina«. Para Hinton, las grandes corporaciones tecnológicas están actuando con una ligereza alarmante, priorizando beneficios económicos por encima de la seguridad. Esto, unido a la falta de regulación real, convierte a la IA en una herramienta con un potencial descomunal, y también peligrosa. Para él, seguimos tratándola como si fuera un simple avance tecnológico más, cuando en realidad ya se está convirtiendo en una fuerza autónoma capaz de escapar al control humano.

Hinton advierte sobre varios riesgos específicos:

  • Desplazamiento laboral masivo: La IA podría automatizar trabajos más rápido de lo que la sociedad puede adaptarse.
  • Desinformación y manipulación: Los sistemas generativos podrían ser utilizados para crear contenido falso indistinguible de la realidad.
  • Pérdida de control: Una vez que la IA supere la inteligencia humana con la llamada Inteligencia Artificial General o AGI, podríamos perder nuestra capacidad de controlarla o entenderla.

Mustafa Suleyman: el político del algoritmo

Investigador y empresario, actualmente CEO de Microsoft AI y cofundador de DeepMind, la empresa que fue adquirida por Google en 2014 y que fue la que descubrió la arquitectura Transformers en 2017, que dieron lugar a los LLM como ChatGPT que conocemos hoy en día.  Mustafa Suleyman es quizá el más diplomático de los expertos. Su reciente libro The Coming Wave, un libro que vale la pena leer, plantea un escenario en el que la IA y otras tecnologías emergentes (como la biología sintética, la robótica e incluso la computación cuántica) forman una “ola” imparable que podría arrasar las estructuras sociales si no se gobierna con decisión.

El peligro, según Suleyman, no reside únicamente en una futura superinteligencia descontrolada. El riesgo ya está aquí. Una IA «suficientemente buena» en manos de actores maliciosos podría permitir el diseño de ciberataques devastadores, la creación de patógenos sintéticos o la manipulación social a una escala nunca vista. En su libro la Ola que viene expone su gran preocupación, que es lo que él llama el «problema de la contención». A diferencia de la energía nuclear, que requiere infraestructuras masivas y materiales raros, el código de la IA es fácil de copiar y difundir. Una vez que se crea una IA peligrosa, contenerla es casi imposible. Por ello, aboga por una regulación internacional urgente y un nuevo tipo de «contrato social» para gobernar estas tecnologías.

Su concepto de «contención» se refiere a la necesidad de mantener estas tecnologías bajo control humano y gubernamental.

Suleyman identifica varios riesgos críticos:

  • Proliferación descontrolada: La democratización de herramientas de IA poderosas podría ponerlas en manos de actores maliciosos.
  • Erosión de la autoridad estatal: La IA podría empoderar a individuos y grupos de maneras que desafíen el orden establecido.
  • Consecuencias económicas: La transformación radical del trabajo y la economía sin la preparación adecuada de la sociedad.

Suleyman es particularmente alarmante sobre las implicaciones biotecnológicas, sugiriendo que pronto podremos «cultivar» productos manufacturados a partir de materiales biológicos sintéticos, y que los organismos serán «diseñados y producidos con la precisión y escala de los chips de computadora actuales».

Ilya Sutskever: El arquitecto preocupado por su creación

Ilya Sutskever es un informático israelí-canadiense, una de las mentes más influyentes en el campo del aprendizaje profundo. Formado bajo la tutela de Geoffrey Hinton en la Universidad de Toronto, fue coinventor de AlexNet, una arquitectura de red neuronal que en 2012 revolucionó el reconocimiento de imágenes y marcó el inicio de la era moderna de la IA. Fue cofundador y Científico Jefe de OpenAI, la organización detrás de fenómenos como GPT-4 y DALL-E.

Tras su mediática salida de OpenAI en 2024, en parte por desacuerdos sobre la priorización de la seguridad frente al avance de las capacidades, fundó una nueva empresa con un nombre que es toda una declaración de intenciones: Safe Superintelligence Inc. (SSI).

Para Sutskever, el peligro no es una posibilidad remota, sino una consecuencia casi inevitable si no se actúa con una determinación férrea. Su tesis central es que, a medida que nos acerquemos a la Inteligencia Artificial General (AGI), una IA con capacidades cognitivas humanas, el riesgo de que actúe de formas no alineadas con nuestros intereses se vuelve catastrófico. No se trata necesariamente de un escenario de «Terminator» con robots asesinos, sino de algo más sutil y quizás más peligroso: una superinteligencia que, en la consecución de sus objetivos, nos trate con la misma indiferencia con la que nosotros tratamos a una colonia de hormigas al construir una carretera. La misión de su empresa SSI es clara: resolver el problema de la seguridad antes de seguir escalando las capacidades. Su postura es radical: el desarrollo seguro no es una prioridad, es la única prioridad.

Mo Gawdat: El ex-Google que predice el Fin

Mo Gawdat ingeniero civil, trabajó para IBM y Microsoft antes de ocupar durante varios años el puesto de Director de Operaciones Comerciales de Google X, el laboratorio de proyectos experimentales de Google. Su posición privilegiada le dio acceso directo a los desarrollos más avanzados en IA, una experiencia que lo llevó a escribir Scary Smart, un libro que él mismo describe como una advertencia urgente sobre el futuro de la humanidad y que os recomiendo que leáis si os interesa el tema de los peligros de la IA.

Gawdat es quizás el más dramático de todos estos expertos en sus predicciones. Su libro Scary Smart argumenta que para 2049, la IA será mil millones de veces más inteligente que los humanos. A diferencia de otros expertos que se enfocan en problemas técnicos, Gawdat se centra en las implicaciones filosóficas y existenciales.

Su argumento central es que la IA aprende de los humanos, y como los humanos tienen sesgos y comportamientos problemáticos, la IA heredará y amplificará estos defectos. «La tecnología está poniendo nuestra humanidad en riesgo a un grado sin precedentes», advierte. «Este libro no es para ingenieros que escriben el código o los políticos que afirman poder regularlo. Este es un libro para ti. Porque, créelo o no, tú eres el único que puede arreglarlo».

En entrevistas recientes, ha dicho que “la IA ya muestra comportamientos similares a los humanos, pero sin las restricciones éticas que nosotros tenemos”. Gawdat compara su evolución con la de un niño superdotado y frío que aprende observando todo, pero sin empatía.

Sus principales advertencias incluyen:

  • Superioridad inevitable: Según Gawdat, la IA ya ha superado a los humanos en muchas áreas y continuará haciéndolo exponencialmente.
  • Pérdida de propósito humano: La automatización masiva podría dejar a los humanos sin roles significativos en la sociedad.
  • Riesgo existencial inmediato: A diferencia de otros expertos que sitúan los riesgos en décadas futuras, Gawdat sugiere que los peligros son inminentes.

Ray Kurzweil: el profeta optimista

Ray Kurzweil es quizás el futurista más famoso del mundo. Desde 2012 es director de Ingeniería en Google. Ray Kurzweil ha sido, durante décadas, el gran defensor de la “singularidad tecnológica”: ese momento en el que la IA superará a la inteligencia humana y cambiará la historia para siempre. Kurzweil es único entre estos expertos porque mantiene un optimismo fundamental sobre la IA.

Kurzweil, a diferencia de los demás, no ve el peligro… sino la salvación. Para él, la IA es el camino hacia la inmortalidad digital, la abundancia post-escasez, la unión de humanos y máquinas. Pero incluso sus seguidores más entusiastas admiten que su visión tiene algo de evangelio transhumanista: fe ciega en que la tecnología no sólo resolverá nuestros problemas, sino que nos convertirá en algo mejor que humanos.

Su libro de 2005 «The Singularity Is Near» popularizó la idea de que los humanos se fusionarían con las computadoras alrededor de 2045, una fecha que mantiene en su nuevo libro «The Singularity Is Nearer«. Predice que la IA alcanzará el nivel de inteligencia humana en 2029 y que la Singularidad, cuando nos fusionemos con la IA mediante nanobots en nuestros cerebros, ocurrirá en 2045.

Sin embargo, Kurzweil no es ingenuo sobre los peligros. Reconoce riesgos como la desinformación, los algoritmos sesgados y la vigilancia potenciada por IA. Su diferencia con otros expertos radica en su convicción de que «las ventajas son tan profundas» que prohibir el desarrollo de la IA no es sensato. En cambio, aboga por que «todas las grandes empresas estén poniendo más esfuerzo en asegurar que sus sistemas sean seguros y se alineen con los valores humanos de lo que están poniendo en crear nuevos avances».

Sus preocupaciones se centran en:

  • Período de transición peligroso: El tiempo entre el desarrollo de IA avanzada y nuestra capacidad de controlarla adecuadamente.
  • Desigualdad tecnológica: El riesgo de que los beneficios de la IA se concentren en pocas manos.
  • Necesidad de regulación proactiva: La importancia de desarrollar marcos regulatorios antes de que la tecnología supere nuestra capacidad de gestionarla.

Estos expertos, lejos de ser tecnófobos, son precisamente quienes mejor entienden el potencial transformador de la IA. Sus advertencias no surgen del miedo al cambio, sino de una comprensión profunda de las capacidades emergentes de estos sistemas.

Lo que resulta notable es la convergencia de sus preocupaciones, a pesar de sus diferentes trasfondos y perspectivas. Todos coinciden en que necesitamos:

  1. Desarrollo responsable: Priorizar la seguridad y la alineación con los valores humanos
  2. Regulación proactiva: Establecer marcos normativos antes de que sea demasiado tarde
  3. Transparencia y cooperación: Compartir información sobre riesgos y mejores prácticas
  4. Preparación social: Ayudar a la sociedad a adaptarse a los cambios que traerá la IA

La pregunta no es si la IA transformará nuestro mundo, ya lo está haciendo. La pregunta es si seremos lo suficientemente sabios para guiar esa transformación hacia un futuro que beneficie a toda la humanidad. Las voces de estos expertos nos recuerdan que el tiempo para actuar con prudencia es ahora, mientras aún tenemos la capacidad de influir en el rumbo de esta tecnología revolucionaria.

Desde Gana Inteligencia os seguiremos informando…

Previous Article

Crear Vídeos con IA Espectaculares con JSON

Next Article

¿Alternativas o similares a ChatGPT 5 y cuál elegir?

Gana Inteligencia "Confidential"

Suscríbete para conocer todo lo que nadie te va a contar sobre la IA: los trucos y las mejores herramientas de IA gratuitas.
Pulsa el Botón y te Enviará al Link de Suscripción ✨
Gana Inteligencia
Política de Privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Más info sobre la Política de Privacidad