Son muchos los personajes prominentes que nos han advertido sobre el riesgo de extinción por parte de la inteligencia artificial. Ellos consideran que el desarrollo vertiginoso que recientemente ha tenido la IA podría generar el declive de los humanos en un futuro cercano. A continuación, conocerás por qué no se puede ignorar su preocupación y qué se puede hacer al respecto.
En el año 1984 se exhibió en los cines del mundo el exitoso largometraje de ciencia ficción Terminator (El Exterminador) de James Cameron. Este tuvo un gran impacto en el colectivo, ya que presentó una versión oscura pero realista de la inteligencia artificial: una amenaza eminente para nuestra supervivencia. Desde entonces y hasta la actualidad, son muchas las voces de destacadas personalidades que nos piden no ignorar el riesgo que la IA representa para nuestra especie.
¿Por qué preocupa el desarrollo de la inteligencia artificial?
La principal preocupación que existe en este campo es que se desarrolle un modelo de IA que nos supere en inteligencia. No es una inquietud banal, ya que el éxito evolutivo de los humanos se basa casi exclusivamente en que somos la especie más inteligente en nuestro planeta. Y por ello, nunca hemos tenido que competir con otra especie o ente más inteligente que nosotros.
Otro riesgo que deriva de la superinteligencia de la IA es que desarrolle autonomía, es decir, adquiera mayor capacidad de tomar decisiones por sí misma. Si esta no es debidamente controlada, dicha autonomía puede significar acciones contrarias a los intereses humanos. Luego, podría tomar decisiones que no comprendemos o que no están alineadas con nuestros valores, con consecuencias imprevistas y potencialmente catastróficas.
Por otra parte, la competencia entre diferentes países y empresas para desarrollar inteligencia artificial más poderosa puede desatar una carrera armamentista peligrosa. Y ayudar a exacerbar las desigualdades sociales existentes, al concentrar los beneficios de la IA en pocos ciudadanos pudientes.
¿Qué es la declaración sobre los riesgos de la IA?
La declaración sobre los riesgos de la IA es una carta abierta en la que expertos en inteligencia artificial y figuras públicas expresan su preocupación por el peligro de la IA. Tiene como objetivo difundir al público general las preocupaciones que aquellos poseen sobre los efectos perniciosos de la inteligencia artificial. Y generalizar el debate sobre el tema, con la finalidad de que se realicen estudios apropiados para estimar el riesgo real existente, y las posibles medidas de mitigación.
Entre los firmantes más destacados de la declaración se encuentran:
- Sam Altman, director ejecutivo de OpenAI.
- Demis Hassabis,director ejecutivo de Google DeepMind.
- Geoffrey Hinton, profesor emérito de informática de la Universidad de Toronto, considerado el padrino de la IA.
- Bill Gates, fundador de Microsoft.
Ver directores y científicos relacionados con el desarrollo de la IA respaldando la declaración sobre riesgos de la inteligencia artificial es una alerta. Y en particular al considerar que algunos de ellos, como Sam Altman y Demis Hassabis,son directores de las empresas de desarrollo de modelos de IA más exitosas en la actualidad.
Otro indicador de la preocupación actual sobre el tema del riesgo de extinción por parte de las IAs es una encuesta realizada a finales del 2024, publicada en el portal NewScientist. Con una participación de alrededor de 2.700 investigadores de la inteligencia artificial, el 58% de ellos señalaron que existe un 5% de probabilidad de que la IA cause nuestra extinción u otros resultados negativos que afecten a nuestra especie.
En síntesis, existe entre los científicos y personalidades una creciente conciencia sobre los riesgos potenciales asociados con el desarrollo de la inteligencia artificial. Acciones como la declaración sobre los riesgos de la IA son llamados a la acción para que la sociedad se involucre en esta discusión y en la búsqueda de posibles soluciones.