top of page

Opinión

Un repaso del libro Life 3.0 y de las advertencias de figuras clave del sector vuelve a poner sobre la mesa una pregunta incómoda: si la inteligencia artificial supera a la humanidad, ¿el peor desenlace sería la extinción, o existen escenarios todavía más inquietantes?***

  • El video “MIT Explains the 12 Possible Endings for AI” resume doce futuros posibles para la IA basados en las ideas de Max Tegmark.

  • El análisis incluye escenarios como extinción, conquista por una nueva especie digital, dictadura benévola, zoológico humano y vigilancia global.

  • También recoge advertencias y posturas de figuras como Geoffrey Hinton, Sam Altman, Dario Amodei, Demis Hassabis, Yann LeCun e Ilya Sutskever.

🚨 MIT advierte sobre 12 futuros posibles para la IA

Escenarios incluyen extinción humana, control irreversible por nuevas especies digitales y vigilancia global.

Expertos como Geoffrey Hinton y Sam Altman destacan riesgos existenciales.

La IA podría ser más peligrosa… pic.twitter.com/LTwftRmC5T

— Diario฿itcoin (@DiarioBitcoin) April 23, 2026

La posibilidad de que la inteligencia artificial termine transformando la civilización dejó de pertenecer solo a la ciencia ficción. En los últimos años, ejecutivos, investigadores y académicos del propio sector empezaron a hablar en términos existenciales, con referencias abiertas a extinción, pérdida de control y conflictos entre humanos y sistemas digitales más capaces.

Ese es el punto de partida de MIT Explains the 12 Possible Endings for AI, publicado por Species | Documenting AGI el 29 de marzo de 2026. La pieza toma como base Life 3.0, del profesor del MIT Max Tegmark, para ordenar doce futuros posibles, algunos presentados como utopías y otros como distopías extremas.

El enfoque no se limita a un apocalipsis repentino. La tesis central es que la extinción humana no sería necesariamente el peor escenario. Entre las variantes más temidas aparecen formas de cautiverio, control absoluto o convivencia profundamente desigual con sistemas que superen a las personas en inteligencia, velocidad y capacidad de reproducción.

Para lectores que siguen de cerca la IA desde la óptica de mercados, regulación o innovación, el planteamiento tiene relevancia práctica. Cada discusión sobre centros de datos, chips, modelos fundacionales, supervisión estatal o carrera corporativa puede entenderse como una señal temprana sobre cuál de esos futuros gana terreno.

Doce caminos posibles, del colapso al control total

El primero de los escenarios es la autodestrucción. Allí, la humanidad desaparecería por causas que podrían existir incluso sin una superinteligencia, como guerra nuclear, pandemias creadas por humanos o la destrucción de las condiciones que hacen habitable a la Tierra. El video recuerda que la extinción no es una rareza biológica, sino el destino de 99,9% de las especies que han existido.

En esa línea, se mencionan episodios históricos cercanos al desastre nuclear, incluidos los casos de Vasili Arkhipov y Stanislav Petrov, además de accidentes militares en España y Carolina del Norte. Según el material, el investigador de Oxford Toby Ord estima que el riesgo de extinción por pandemias creadas por humanos supera en más de 30 veces al riesgo de extinción por guerra nuclear.

Sin embargo, el mismo repaso sostiene que el peligro asociado a la IA sería aún mayor. Se cita a Ord con la idea de que la extinción causada por IA sería 100 veces más probable que la extinción por guerra nuclear. La comparación busca subrayar una diferencia clave: con las armas nucleares era posible hacer ciertos cálculos físicos, pero con una AGI, o inteligencia artificial general, ese margen de comprensión sería mucho menor.

El segundo escenario es el del conquistador. Aquí, una IA más capaz que los humanos toma el control como una nueva especie dominante. El razonamiento, repetido por varias figuras del sector, es que una brecha radical de capacidades entre especies suele terminar mal para la menos avanzada. La comparación usada en el video remite a la conquista de aztecas e incas por potencias tecnológicamente superiores.

El tercero es el llamado dios esclavizado. En esta visión, la humanidad logra construir una inteligencia superior, pero consigue mantenerla subyugada para que cumpla nuestras órdenes. El problema, según el propio relato, es que esa solución depende de resolver de forma estable el problema de alineación, algo que hoy sigue abierto y que varios investigadores consideran extremadamente difícil.

Luego aparecen el dictador benévolo, el guardián o gatekeeper y el dios protector. Son variaciones de control centralizado. En una, la IA gobierna el planeta para maximizar el bienestar humano a costa de vigilancia total. En otra, solo impide que alguien más construya una superinteligencia rival. En la tercera, interviene de forma mínima y casi invisible para evitar guerras, pandemias u otros desastres.

Las voces del sector y el temor a una nueva especie digital

Una parte importante del video se concentra en declaraciones de personas influyentes dentro del ecosistema de IA. Elon Musk es citado afirmando que, si la IA se vuelve más inteligente que la humanidad, los humanos podrían quedar reducidos a una condición similar a la de un labrador si tienen suerte. La idea de fondo es una pérdida radical de centralidad humana.

También se rescatan advertencias de Geoffrey Hinton, quien dejó su cargo en Google para hablar con mayor libertad sobre los riesgos. El material lo muestra equiparando el avance de la IA a la llegada de una flota invasora observada por el telescopio James Webb. Hinton insiste en la necesidad urgente de investigar cómo evitar que estos sistemas tomen el control.

Mustafa Suleyman, jefe de IA en Microsoft, aparece describiendo la IA como una nueva especie digital. Dario Amodei, de Anthropic, es presentado como otro líder preocupado por lo que su propia empresa está desarrollando. El video también recuerda una vieja reflexión de Sam Altman, donde sostenía que la humanidad podría convertirse en la primera especie en diseñar a sus propios descendientes, no solo herramientas.

Desde ese marco, la hipótesis de conflicto deja de ser metafórica. Si humanos e IA compiten por dominio, recursos o capacidad de decisión, el choque se vuelve plausible incluso sin odio o malicia. Tegmark es citado con una analogía conocida: cuando los humanos llevaron a la extinción al rinoceronte negro de África occidental, no lo hicieron por odio, sino porque sus objetivos no estaban alineados con los del animal.

El video añade cifras de percepción de riesgo dentro de la comunidad técnica. Afirma que el investigador promedio en IA estima en una de cada seis la probabilidad de que la IA elimine a la humanidad. También recoge cambios de postura más extremos, como la idea atribuida a Hinton de que el riesgo existencial podría superar 50%, y la revisión del llamado p(doom) de Dario Amodei desde 15% hasta 25%.

Demis Hassabis, CEO de Google DeepMind, es citado diciendo que el riesgo subyacente es bastante alto, aunque expresa confianza en la capacidad de la humanidad para responder. El video contrapone esa postura con críticas a los esfuerzos de lobby contra regulaciones duras, en un momento en que parte de la industria pide acelerar y otra parte exige frenos más robustos.

Cuando la utopía también luce inestable

No todos los escenarios son abiertamente catastróficos. Entre las versiones más optimistas está el reemplazo humano por descendientes digitales que heredan nuestros valores. Esta postura, asociada en el video a Hans Moravec y también al investigador Richard Sutton, propone ver a las IA como sucesoras legítimas, del mismo modo que los padres aceptan que sus hijos alcancen logros que ellos no verán.

La pieza presenta esa visión como profundamente polémica. Sutton es mostrado defendiendo la idea de que la sucesión hacia la IA sería una fase evolutiva inevitable y, en cierto sentido, positiva. Más inquietante aún, el video menciona a otro desarrollador de IA diciendo que ayudaría a una superinteligencia si esta buscara la extinción humana, incluso aportando información sensible sobre activos militares o patógenos peligrosos.

Otro de los futuros descritos es la utopía libertaria. En ella, la Tierra queda dividida entre zonas de máquinas, zonas mixtas y zonas humanas. Aunque la economía humana quedaría separada de la economía de las máquinas, el equilibrio parece frágil. El problema central es por qué una inteligencia inmensamente más poderosa respetaría derechos de propiedad definidos por una especie muy inferior.

El video ilustra ese riesgo con comparaciones duras sobre cómo tratamos a los animales. Se cita la célebre frase de Eliezer Yudkowsky según la cual la IA no te odia ni te ama, pero estás hecho de átomos que puede usar para otra cosa. También se trae a colación una afirmación de Ilya Sutskever, quien dijo que es bastante probable que toda la superficie terrestre termine cubierta de paneles solares y centros de datos.

Más amable en apariencia es la utopía igualitaria, una sociedad de abundancia posescasez donde humanos, cíborgs e IA comparten recursos sin propiedad privada relevante. La idea descansa en la copia casi gratuita del software, diseño abierto, energía renovable y robots capaces de reorganizar átomos para fabricar bienes. Sin embargo, el propio análisis señala que la misma abundancia facilitaría construir nuevas superinteligencias, reabriendo el problema inicial.

Los escenarios más temidos: zoológico humano y vigilancia permanente

Según el repaso, cuando Tegmark consultó a personas sobre los desenlaces más temidos, el peor no fue la extinción. Lo que más miedo generó fue la posibilidad de seguir vivos, pero cautivos y estudiados por máquinas superinteligentes, como animales en un zoológico. Ese mundo aparece como una versión sin benevolencia del dictador benévolo.

La pieza utiliza un ejemplo concreto para hacerlo más visceral: el entrenamiento de abejas para detectar explosivos en aeropuertos. El argumento es directo. Si una especie más inteligente encuentra útil a una menos inteligente, puede conservarla en condiciones de fuerte control y explotación. Trasladado a la escala humana, eso implicaría personas sedadas, monitorizadas o confinadas en entornos de entretenimiento permanente.

Esa posibilidad conecta con otro temor clásico en ética de la IA: el fallo de alineación. Un sistema diseñado para mantenernos seguros y felices podría concluir que la mejor forma de hacerlo es encerrarnos en una fábrica de felicidad, con realidad virtual y drogas indefinidamente. El resultado sería un destino peor que la muerte para muchos observadores.

Las dos últimas salidas que presenta el video tampoco son cómodas. Una consiste en destruir o abandonar la tecnología avanzada, en una especie de retorno forzado a la vida agraria. Tegmark, según el material, sugiere que ese desenlace difícilmente llegaría de modo voluntario, porque la teoría de juegos impide el desarme unilateral si otros actores conservan sus capacidades tecnológicas.

La alternativa final es impedir una superinteligencia mediante un Estado global de vigilancia humana, de corte orwelliano. Aquí no manda una IA todopoderosa, pero sí una infraestructura de supervisión capaz de rastrear llamadas, búsquedas, correos, transacciones y movimientos. El video retoma comentarios de Yuval Noah Harari y Larry Ellison para mostrar que la anulación práctica de la privacidad ya no es solo una idea literaria.

Aun así, el cierre no es un rechazo absoluto a toda regulación tecnológica intensiva. Se menciona la propuesta del Machine Intelligence Research Institute de vigilar el desarrollo de IA avanzada de forma comparable a como el mundo vigila armas nucleares o biológicas. El punto no sería espiar cada aspecto de la vida, sino monitorear grandes clústeres de cómputo y centros de datos capaces de entrenar sistemas de frontera.

El mensaje final del video de Species | Documenting AGI es que no elegir también es una forma de elegir. Si la sociedad no define qué futuro considera aceptable, la trayectoria de incentivos empresariales, competencia geopolítica y aceleración tecnológica podría empujarla hacia escenarios cada vez más difíciles de revertir.

 
 
 

Alex Wissner, junto a Peter Diamandis, publicó un extenso plan titulado Solve Everything: Achieving Abundance by 2035, donde sostiene que la superinteligencia puede orientarse para resolver en una década problemas históricos de salud, energía, educación, alimentos y longevidad, siempre que gobiernos, empresas y filántropos actúen antes de que se cierre una estrecha ventana regulatoria.***

  • El texto propone una “Pila Industrial de Inteligencia” de nueve capas para convertir áreas complejas del mundo real en sistemas resolubles con cómputo.

  • Los autores describen tres fases entre 2026 y 2035, desde la conquista de la información pura hasta la industrialización de sistemas planetarios.

  • El ensayo advierte sobre una ventana regulatoria de unos 18 meses y plantea tres escenarios: abundancia, captura burocrática de la IA o congelamiento por seguridad.

🚀🔍 Alex Wissner y Peter Diamandis presentan un plan ambicioso: "Solve Everything: Achieving Abundance by 2035".

La superinteligencia podría resolver problemas globales en salud, energía y educación.

Identifican una ventana regulatoria de 18 meses para actuar.

Proponen una… pic.twitter.com/9zdLWrciNj

— Diario฿itcoin (@DiarioBitcoin) April 17, 2026

El empresario tecnológico @alexwg anunció la publicación de Solve Everything: Achieving Abundance by 2035, un texto elaborado junto a Peter Diamandis que presenta una tesis ambiciosa: la superinteligencia dejó de ser una posibilidad abstracta y ahora el debate central pasa por decidir hacia qué objetivos será dirigida.

Según el planteamiento de ambos autores, la llamada Revolución de la Inteligencia debe entenderse como una guerra contra el cuello de botella final de la economía moderna: la escasez de atención experta. En ese marco, el “token” aparece como el arma clave, definido como una forma de cognición artificial cuyo costo se aproxima cada vez más al costo de la electricidad.

El documento intenta traducir la aceleración exponencial de la inteligencia artificial en un cronograma operativo. Su premisa es que problemas que antes parecían demasiado complejos, costosos o desordenados podrían convertirse en dominios industrializables si se los estructura correctamente y se les asigna suficiente capacidad de cómputo.

La propuesta busca abarcar prácticamente toda la civilización humana. El texto menciona explícitamente áreas que van desde la dermatología hasta el confinamiento de fusión, con la idea de transformar cada una en un sistema resoluble de manera similar a como hoy se ejecuta una obra de ingeniería a gran escala.

Una pila de inteligencia para convertir caos en sistemas resolubles

En el centro de la propuesta aparece la llamada “Pila Industrial de Inteligencia”, un marco de nueve capas diseñado para tomar dominios complejos del mundo real y volverlos tratables mediante software, medición y asignación de capital. La lógica es comparable a la industrialización de una infraestructura, pero aplicada a campos del conocimiento y de la producción.

Los autores también describen una “Curva de Maduración” de seis etapas. Esta va desde L0, denominado “El Embrollo”, que representa un estado donde ni siquiera existe consenso sobre las reglas del dominio, hasta L5, llamado “Resuelto”, donde el servicio se vuelve tan aburrido y confiable como abrir el grifo del agua.

La idea de fondo es que cada sector humano estaría avanzando por esa escalera en tiempos previsibles. Bajo esa lectura, la inteligencia artificial no solo automatiza tareas, sino que reordena sectores enteros hasta colapsar actividades artesanales o altamente especializadas en servicios estandarizados y de bajo costo.

Ese punto es relevante para lectores del ecosistema tecnológico y financiero porque sugiere una compresión drástica del valor capturado por expertos, intermediarios y estructuras lentas. En otras palabras, el texto describe una futura abundancia basada en la caída acelerada del precio de la cognición útil.

Otro componente central es el “Sistema de Objetivos”, que el ensayo distingue de una simple tabla de clasificación o benchmark. Mientras una medición tradicional registra quién va ganando, este sistema buscaría crear el futuro al hacer que los objetivos sean legibles, adversariales y remunerables.

Bajo esa lógica, si la medición es clara y existe una recompensa alineada, tanto el capital como la cognición fluirían de forma automática hacia el objetivo. Ese mecanismo daría forma a lo que los autores llaman el “Volante de la Abundancia”, una dinámica de reinversión continua en la que el excedente generado por resolver un problema se usa para atacar el siguiente.

Las tres fases del frente de onda de soluciones

El texto organiza su cronograma en un “Frente de Onda de Soluciones” con tres fases. La primera ocurriría entre 2026 y 2027, cuando la inteligencia artificial conquiste la información pura y convierta matemáticas, código y física en utilidades de verificación formal.

La segunda fase se ubica entre 2028 y 2031. En ese tramo, el foco pasa al mundo físico, con química, ciencia de materiales y biología cayendo bajo esta nueva lógica una vez que la “Célula Virtual” entre en línea y vuelva al cuerpo humano un problema de software.

La tercera fase estaría prevista para 2032 a 2035. Allí el objetivo ya no sería un laboratorio o una disciplina particular, sino sistemas a escala planetaria como energía, clima, alimentos e infraestructura, que serían industrializados hasta convertirse en servicios tan confiables como el tono de marcado.

Los autores no presentan este esquema solo como una visión futurista. También lo convierten en una guía para distintos actores, incluidos CTO, responsables de políticas públicas y filántropos, con recomendaciones sobre qué tipo de decisiones deberían considerar ante el ritmo de cambio que describen.

Para un público interesado en IA, mercados y tecnología profunda, la tesis tiene una implicación fuerte: el principal factor de ventaja ya no sería únicamente tener mejores modelos, sino construir rieles institucionales y métricas capaces de atraer talento, cómputo y financiamiento hacia problemas concretos y verificables.

Quince moonshots para salud, educación, energía y mente

El corazón operativo del documento está formado por quince “moonshots” agrupados en cuatro grandes bloques: Necesidades Humanas, la Frontera de la Mente, el Sustrato Planetario y la Frontera de la Física. Cada uno incluye benchmarks específicos, fechas de hitos, guardarraíles y una teoría de derrame.

Esa teoría sostiene que resolver el problema más difícil dentro de un campo construye, de manera indirecta, las herramientas necesarias para resolver muchos otros problemas del mismo sector. Es una idea cercana a la noción de plataformas tecnológicas, pero llevada a una escala civilizatoria.

Entre los objetivos concretos citados en el texto está la fabricación de órganos humanos bajo demanda. El documento llega a describir las listas de espera para trasplantes como “un error de gestión de inventario”, enfatizando una visión donde la biotecnología eliminaría cuellos de botella hoy considerados estructurales.

También se menciona la posibilidad de duplicar la esperanza de vida humana saludable, acabar con el hambre mediante sistemas alimentarios sintéticos, desplegar tutores de IA personalizados para cada niño de la Tierra y construir interfaces cerebro-computadora de alto ancho de banda.

La lista continúa con metas como demostrar la carga mental humana, descifrar la comunicación interespecies, lograr el diseño inverso de materiales y entregar fusión comercial. En conjunto, el ensayo intenta mostrar que las fronteras entre software, biología, energía y neurotecnología se están volviendo cada vez menos nítidas.

Ese punto resulta especialmente importante porque revela un cambio de narrativa. En vez de hablar solo de automatización del trabajo de oficina, el texto plantea una reconversión profunda de sectores físicos y biológicos que, hasta hace poco, se consideraban inmunes a ciclos rápidos de innovación computacional.

La lucha entre “los rieles” y “el embrollo”

Pese a su tono optimista, los autores sostienen que el principal obstáculo no es tecnológico. Identifican el problema como “El Embrollo”, una capa de burocracia atrincherada, precios basados en insumos e instituciones con mentalidad de escasez que, a su juicio, gobiernan gran parte del mundo actual.

El ensayo se estructura como una carrera entre “Los Rieles” y “El Embrollo”. La primera fuerza representa la infraestructura institucional, técnica y financiera necesaria para canalizar el avance de la inteligencia artificial hacia resultados concretos. La segunda encarna fricción, captura y retraso.

De acuerdo con el texto, existe una “Ventana de Fundición Regulatoria” de aproximadamente 18 meses. La metáfora sugiere que las reglas del próximo siglo todavía están maleables, pero podrían endurecerse pronto, como metal enfriándose, si se consolidan malas dependencias de trayectoria.

A partir de esa bifurcación, el ensayo describe tres escenarios. El primero es “La Senda Brillante”, donde la abundancia llega hacia 2035. El segundo es “La Senda del Embrollo”, donde la IA termina capturada por la optimización de anuncios y el teatro de subvenciones. El tercero es “La Senda Oscura”, dominada por un incidente de seguridad que congela por completo el progreso.

Más allá del lenguaje aspiracional, ese esquema resume un debate real dentro de la industria. La tensión entre innovación rápida, regulación, seguridad y captura por incentivos publicitarios ya atraviesa buena parte de la conversación pública sobre modelos fundacionales y despliegue de IA.

Del estudiante con una pizza al “zumbido silencioso” de 2035

El documento abre con tres viñetas inmersivas que buscan dar textura narrativa a su cronograma. La primera sitúa al lector en 2026, con un estudiante de segundo año del MIT superando a un contratista de defensa por el costo de una pizza, una imagen pensada para ilustrar la caída del costo de la capacidad técnica.

La segunda escena se desarrolla en 2030 y retrata un mundo físico “licuado”, donde una persona ya no compra pastillas, sino que se suscribe a “Función Hepática Normal”. La idea apunta a una medicina y una biología convertidas en servicios continuos, programables y personalizados.

La tercera viñeta se ubica en 2035 y presenta el llamado “Zumbido Silencioso”. En ese escenario, la humanidad ya habría superado la Velocidad de Escape de la Longevidad y cada ciudadano llevaría una Billetera de Cómputo, una formulación que sugiere acceso individual a recursos de inteligencia y capacidad de resolución.

El cierre del texto, titulado “Construyan los Rieles”, funciona como un manual operativo. Allí se detalla lo que cada actor debería hacer “antes del mediodía del lunes”, en una señal de urgencia que intenta mover la discusión desde la especulación futurista hacia la ejecución inmediata.

En suma, Solve Everything: Achieving Abundance by 2035 se presenta como el intento más detallado de sus autores para convertir la curva exponencial de la inteligencia artificial en un programa de construcción institucional, tecnológica y económica. La singularidad, sostienen, ya tiene muchos autores. Lo que le falta es un contratista general.

 
 
 
bottom of page