0:00
0:00

La Inteligencia Artificial General (IAG) —entendida como un sistema capaz de realizar cualquier tarea cognitiva humana con igual o superior competencia, ha pasado de ser un concepto filosófico a una hipótesis tecnológica plausible. Aunque todavía no existe, los avances acelerados en modelos fundacionales, aprendizaje multimodal y agentes autónomos han reavivado el debate sobre su impacto civilizatorio. Pensadores como Nick Bostrom, Geoffrey Hinton, Eliezer Yudkowsky, James Barrat y Shahar Avin han contribuido a estructurar esta discusión, que oscila entre la promesa de prosperidad sin precedentes y el riesgo de consecuencias existenciales para el futuro de la humanidad.

Nick Bostrom, en Superintelligence (2014), planteó una tesis provocadora: si una IAG alcanzara rápidamente un nivel de “superinteligencia”, podría superar a los humanos en casi todos los dominios relevantes y adquirir una ventaja estratégica decisiva. El problema no sería la malicia, sino la desalineación de sus objetivos con los de los humanos. Una inteligencia extremadamente capaz, orientada por objetivos o metas mal especificados, podría generar efectos catastróficos de manera instrumental. Bostrom popularizó la idea de la “explosión de inteligencia” y subrayó la necesidad de investigar desde ahora el problema del alineamiento de objetivos, cómo garantizar que los fines y medios de una IAG sean compatibles con los valores humanos.

Shahar Avin, investigador del Center for the Study of Existential Risk en Cambridge Inglaterra, ha matizado y ampliado este enfoque. En trabajos sobre “clasificación de riesgos” y “escenarios de catástrofe”, Avin insiste en distinguir entre riesgos accidentales, riesgos estructurales y riesgos de uso malicioso. La IAG no sería peligrosa únicamente por un fallo técnico, sino también por las diversas dinámicas geopolíticas de los Estados, las carreras armamentistas, los incentivos corporativos y las asimetrías de poder. Avin propone analizar la IAG como un fenómeno sociotécnico, no solo algorítmico. El riesgo emerge de la interacción entre capacidades técnicas y contextos institucionales. James Barrat por su parte advierte que la aparición de la IAG podría ser nuestro último desarrollo tecnológico humano según lo plantea en su Our final invention (2013). 

Las consecuencias económicas de una IAG exitosa serían profundas. Podría acelerar la innovación científica, desde la creación de nuevos materiales hasta nuevas terapias médicas y así aumentar la productividad a niveles históricos. Algunos economistas hablan de “crecimiento explosivo”, donde la automatización del trabajo cognitivo permitiría ciclos de investigación y desarrollo cada vez más rápidos. Sin embargo, la disrupción laboral podría ser masiva. No solo los empleos rutinarios, sino también las profesiones creativas, jurídicas o estratégicas serían probablemente automatizadas y sustituidas por los agentes autónomos de la IAG. Esto plantea interrogantes sobre la distribución de la riqueza, el sentido del trabajo y la estabilidad política. La concentración de capacidades en pocas tecno empresas o super Estados tecnológicos exacerbaría las profundas desigualdades globales actuales.

En el ámbito político, la IAG podría redefinir la soberanía estatal. Los Estados con acceso a sistemas superinteligentes tendrían ventajas en su defensa, ciberseguridad y toma de decisiones estratégicas. Esto podría generar una nueva forma de equilibrio o, más bien desequilibrio de poder. Algunos analistas, inspirados en Bostrom, temen un escenario de “monopolio decisivo” donde un actor controle la primera IAG y consolide una hegemonía irreversible. Otros, como Avin, enfatizan que el riesgo más plausible es una carrera sin coordinación internacional, donde la presión por ser el primero reduzca los estándares de seguridad.

También están las consecuencias culturales y filosóficas. Una IAG capaz de producir arte, ciencia y teoría moral desafiaría nuestra autocomprensión e identidad como la especie superior en el planeta. La pregunta no sería solo si la máquina piensa, sino qué significa pensar en un mundo donde la inteligencia, la capacidad de resolver autónomamente problemas, ya no es exclusivamente humana. Autores como Daniel Dennett han defendido una visión naturalista donde la mente es un proceso funcional, bajo esa óptica, la IAG sería una extensión evolutiva, la IAG seria nuestra prole. Otros sostienen que la conciencia o la intencionalidad humana poseen dimensiones irreductibles. En cualquier caso, la IAG obligaría a replantear categorías como responsabilidad, agencia y dignidad.

Frente a estos escenarios, la gobernanza se vuelve central. Bostrom propone investigación intensiva en alineamiento y cooperación internacional temprana. Avin sugiere marcos de evaluación comparativa de riesgos y la creación de instituciones globales capaces de supervisar desarrollos críticos. Se discute la posibilidad de moratorias, auditorías obligatorias, licencias para modelos de frontera y tratados internacionales similares a los de no proliferación nuclear. Sin embargo, la analogía nuclear es imperfecta: el conocimiento en IA es más difuso y replicable, lo que dificulta el control, asunto sobre el Geoffrey Hinton nos advierte como el gran peligro del rápido desarrollo de la IAG

El futuro de la IAG no está predeterminado. Puede convertirse en una herramienta para resolver problemas globales tales como el cambio climático, la cura de enfermedades aun intratables, la desaparición de la pobreza extrema que todavía afecta a cientos de millones o, al contrario, en un catalizador de inestabilidad planetaria. La clave radica en reconocer que la cuestión no es meramente técnica, sino ética y política. Como advierten Bostrom y Avin, el momento de diseñar salvaguardas es antes de que la capacidad plena exista. La humanidad enfrenta una paradoja histórica, desarrollar la tecnología más poderosa jamás concebida mientras aprende, simultáneamente, a gobernarla. El desenlace dependerá menos de la potencia de los algoritmos que de la sabiduría institucional y moral con la que los seres humanos decidamos emplearlos.

 

Roberto Blum

robertoblum@ufm.edu

post author
Artículo anteriorAsí estará el clima este fin de semana, según el pronóstico del Insivumeh
Artículo siguienteUn traslado obligatorio