La Especie Que Duda.

#ReplicantsIntelligence #ReplicantsIntelligenceEngineer #Filosofia #IA

Crónica de por qué el error más hermoso de la biología sigue siendo nuestra única ventaja real frente a los sistemas de replicación de inteligencia humana que nunca se equivocan de la manera correcta. Wagensberg · Savater · Tyson · 7 etapas.

Etapa 02: Introducción

HAL 9000 nunca tuvo insomnio.

Hay una escena en 2001: Odisea del Espacio que Stanley Kubrick filmó con la frialdad de un cirujano y que lleva décadas viviendo en la cabeza de quien la ve. HAL 9000, la inteligencia artificial más elegante de la historia del cine, le dice a Dave Bowman con la serenidad de quien no conoce ni el pánico ni el arrepentimiento: "Lo siento, Dave. Me temo que no puedo hacer eso." La sala de cine se heló. No porque HAL fuera malvado. Sino porque era completamente indiferente. No tenía nada que perder. No tenía nada que preguntarse. Solo tenía objetivos y la imperturbable certeza de estar cumpliéndolos.

Ese es exactamente el problema. Y también, si uno lo mira bien desde el lado correcto de la historia, nuestra salvación.

Vivimos en el momento histórico más extraño que le ha tocado habitar a esta especie: tenemos máquinas capaces de responder casi cualquier pregunta en 0.3 segundos, con sintaxis impecable, con citas, con subtítulos si los pides y emojis si los necesitas. Y sin embargo —aquí viene lo que nadie dice en los paneles de innovación ni en los congresos de futuro— estos mecanismos predictivos de inteligencia son radicalmente incapaces de hacer lo único que realmente importa: hacerse la pregunta correcta. Desde una visión crítica de la Inteligencia Artificial, como diría Fer Mavec, hay que entender la naturaleza real de la Inteligencia Artificial.

Este texto no es una elegía para lo humano ni un manifiesto contra la tecnología. Es algo más urgente y más raro: es el intento de entender por qué la duda, esa incomodidad que nos ha mantenido despiertos a las tres de la mañana desde que éramos homo sapiens en alguna cueva del paleolítico, es el motor más sofisticado que la evolución ha producido en cuatro millones de años de experimento biológico. Y por qué ningún transformer, por más parámetros que tenga, puede reemplazarlo.

"Si ya tenemos todas las respuestas, lo que nos falta son preguntas."
— Jorge Wagensberg, físico y museólogo

Para llegar a esa conclusión vamos a necesitar hacer escala en varios puertos: el físico catalán que convirtió la incertidumbre en arte museográfico, el filósofo vasco que definió al hombre como el animal que pregunta, el astrofísico neoyorkino que nos recuerda que la ignorancia bien habitada es una ventaja competitiva, y algunos datos técnicos sobre modelos de lenguaje que son tan perturbadores como una botella de mezcal a las dos de la tarde. Todos ellos convergen en la misma tesis: la duda no es un defecto del sistema. Es el sistema.

Etapa 03: Wagensberg y la máquina de comprender

Trivial no significa sin importancia.

Jorge Wagensberg no era el tipo de científico que se encierra en un laboratorio a mirar números hasta quedarse ciego. Era el tipo que rediseñó el Museo de la Ciencia de Barcelona para que un niño de nueve años pudiera entender la segunda ley de la termodinámica sin que nadie le explicara qué era la termodinámica. Un hombre que creía, con la convicción de quien ha pensado el asunto desde todos los ángulos, que comprender no es acumular datos sino destilar esencia: encontrar la mínima expresión de lo máximo compartido.

Wagensberg tenía un concepto que debería enseñarse antes que las tablas de multiplicar. Lo llamaba "trivialidad fundamental". No en el sentido cotidiano de la palabra —lo irrelevante, lo superficial, lo que no vale la pena— sino exactamente lo contrario: lo trivial es aquello que tiene la propiedad de garantizarse a sí mismo. Es la raíz. Es el piso del edificio del conocimiento. La segunda ley de la termodinámica es trivial en ese sentido: el desorden, estadísticamente hablando, es más probable que el orden. Siempre. En todas partes. Sin excepciones. No requiere demostración elaborada porque es la raíz misma desde donde todo lo demás crece.

Nota al margen, porque en las notas al margen es donde ocurre la honestidad técnica: la segunda ley de la termodinámica básicamente dice que todo tiende al caos. Ludwig Boltzmann lo demostró. Luego se suicidó, en parte porque nadie le creía. El universo tiene ese tipo de sentido del humor.

Pero lo que más nos interesa de Wagensberg no es su taxonomía del conocimiento, sino su comprensión del proceso. Para él, el conocimiento avanza en ciclos de tres tiempos que tienen más de jazz que de algoritmo: primero el estímulo —una paradoja, algo que contradice lo que creías o algo para lo que no tienes explicación—; luego la conversación, que es "hablar después de escuchar con alguien dispuesto a escuchar antes de hablar"; y finalmente la comprensión, ese instante eléctrico en que la complejidad se vuelve inteligible.

El punto crucial, el que se pierde en todas las discusiones sobre IA y cognición al olvidar las verdaderas limitaciones cognitivas de la IA, es que este ciclo solo puede iniciarse desde la duda. No desde la certeza. No desde el dato. Desde la incomodidad productiva de no saber. Wagensberg lo llama "la paradoja de incompletitud": ves algo para lo que no tienes explicación y esa incomodidad no es un problema a resolver, es exactamente la palanca que necesitas para saltar al siguiente nivel de comprensión.

Protocolo Wagensberg — Tres pasos para no quedarse en la superficie

  • 1. Estímulo: Algo no encaja. Una contradicción entre lo que ves y lo que creías saber. No la ignores. Es el sistema nervioso del universo tocándote el hombro.
  • 2. Conversación: Habla con la realidad. Habla contigo mismo. Habla con alguien que esté dispuesto a escuchar antes de responder. Agota las posibilidades antes de concluir.
  • 3. Comprensión: El momento en que la complejidad colapsa en elegancia. No es el final del camino —es donde el camino se bifurca en diez caminos nuevos, todos más interesantes que el anterior.

Una IA no puede vivir el primer paso. Puede detectar inconsistencias estadísticas. Puede flagear anomalías en un dataset. Pero la paradoja wagensbergiana —esa tensión entre lo que ves y lo que crees que deberías ver— requiere algo que ninguna función de pérdida puede modelar: la sorpresa genuina. El asombro. La sensación física de que el mundo acaba de romper las reglas que tú mismo le habías impuesto.

Etapa 04: Savater y la bicicleta de la existencia

El animal que sabe que va a morir.

Fernando Savater hace algo que muy pocos filósofos se atreven a hacer: escribe para quien no es filósofo. Sus libros no son catálogos de opiniones eruditas momificadas bajo capas de jerga académica. Son invitaciones. Y la más radical de todas es la que plantea en Las preguntas de la vida, donde propone que la filosofía no se aprende, se practica, como montar en bicicleta: puedes leer mil tratados sobre el equilibrio sobre dos ruedas, pero solo empiezas a pedalear de verdad cuando te subes y asumes el riesgo de la caída.

Savater tiene un argumento que parece simple y es devastador. El ser humano se define, entre todas las cosas que lo definen, como "el animal que pregunta". No el animal que acumula. No el animal que optimiza. El animal que pregunta. Y esa pregunta no nace de la curiosidad técnica ni del imperativo de la eficiencia. Nace de algo mucho más extraño y mucho más profundo: la conciencia de la muerte.

"No es mortal quien simplemente muere, como la planta o el animal que ignoran su finitud, sino aquel que vive con la certidumbre de que va a morir."
— Fernando Savater, filósofo

Ahí está el golpe. El silogismo clásico: "Todos los hombres son mortales. Sócrates es hombre. Luego Sócrates es mortal." Mientras el sujeto sea Sócrates, esto es un ejercicio de lógica agradable. El momento filosófico verdadero —el que te quita el sueño y te cambia la dirección de la vida— ocurre cuando reemplazas a Sócrates por "Yo". Cuando dices en voz alta, con plena conciencia, sin eufemismos y sin la anestesia de las redes sociales: yo voy a morir.

En ese momento la lógica se convierte en existencia. Y la pregunta —¿cómo vivir sabiendo esto?— no tiene respuesta estadística. No tiene benchmark. No hay dataset suficientemente grande para resolverla porque la respuesta debe ser construida, no calculada, por cada individuo en las condiciones únicas e irrepetibles de su propia vida. Esta es la brecha que ninguna arquitectura de transformers puede cruzar.

Savater distingue con precisión quirúrgica entre dos tipos de resolución del saber. La solución científica cancela la pregunta: cuando descubrimos que el agua es H₂O, la duda sobre su composición se cierra, se archiva, se manda al cajón de lo resuelto. Pero la respuesta filosófica cultiva la pregunta. La riega. La hace crecer en direcciones que no anticipabas. No hay respuesta filosófica que cierre el caso. Hay respuestas que abren diez casos nuevos, todos más perturbadores y más vitales que el anterior.

∞ Preguntas que genera una respuesta filosófica.
0 Veces que una IA ha sentido urgencia existencial.

La IA predice sus respuestas basándose en probabilidades. El humano habita la filosofía como un diálogo entre iguales donde puede discutir con la realidad, argumentar contra sus propias fuentes, cambiar de posición no porque el algoritmo lo indique sino porque la evidencia —o la emoción, o la experiencia vivida— lo obligó a recalibrarse. El algoritmo está confinado a la simulación de una respuesta que satisfaga estadísticamente la consulta. El humano está confinado, como decía Sartre con esa elegante brutalidad suya, a la libertad. Condenado a elegir. Y en esa condena está el privilegio.

Etapa 05: Tyson, los sesgos y la paradoja técnica

El perímetro de la ignorancia como ventaja táctica.

Neil deGrasse Tyson tiene la rara habilidad de hacer que el universo parezca simultáneamente aterrador y divertido. Y entre todas sus observaciones —muchas de ellas entregadas con la energía de alguien que acaba de descubrir que el café es legal— hay una que merece más atención de la que normalmente recibe: el "perímetro de la ignorancia".

La idea es sencilla y radical. Los grandes pensadores de la historia no se distinguen por lo que saben. Se distinguen por su relación con lo que no saben. Por su disposición a habitar ese perímetro sin el pánico de necesitar una respuesta inmediata. La ciencia avanza —avanza de verdad, no en el sentido de acumular más datos del mismo tipo— cuando alguien es capaz de formular una pregunta que nadie había formulado antes. Y para formular esa pregunta hay que estar cómodo en la incomodidad. Hay que saber vivir en el borde sin saltar.

La IA no puede habitar ese perímetro. Cuando llega al borde de lo que sabe, no se detiene en contemplación productiva. Alucina. Inventa con la confianza de un estudiante que no estudió pero tiene muy buena letra. Le da una respuesta a la pregunta que no puede responder y lo hace con la serenidad de HAL 9000 cerrando la válvula de oxígeno.

NOTA TÉCNICA QUE DEBERÍA HACERTE PERDER EL SUEÑO: Los estudios sobre autocorrección en sistemas de IA revelan algo que haría llorar a cualquier epistemólogo. DeepSeek —uno de los modelos más avanzados del mercado— alcanza 94% de precisión en benchmarks complejos. Su tasa de autocorrección intrínseca: 16.7%. GPT-3.5, con un humilde 66% de precisión, se corrige el doble de veces. La hipótesis detrás de este dato perturbador: cuanto más sofisticado es el sistema, más profundamente integrados están sus errores. No los ve porque los errores son él. Es como pedirle a Narciso que evalúe objetivamente su propio reflejo.

Pero volvamos a los sesgos, que es donde Tyson se pone más interesante. El cerebro humano no fue diseñado por la evolución para procesar estadísticas. Fue diseñado para sobrevivir, que es un proyecto completamente distinto. Eso nos hace vulnerables a la pareidolia —ver el rostro de Jesús en una tortilla, ver patrones donde solo hay ruido— al sesgo de confirmación, a las verdades políticas que se construyen mediante la repetición hasta que el sistema sensorial las acepta como hechos objetivos.

La diferencia crucial: nosotros podemos darnos cuenta de que estamos sesgados. Podemos, con entrenamiento y honestidad intelectual, activar la duda sobre nuestras propias certezas. Podemos aplicar el método científico descrito por Tyson —observación, teoría, hipótesis falsable— no solo a fenómenos externos sino a nuestras propias creencias. La IA no puede cuestionar las premisas de su entrenamiento desde adentro. Sus sesgos no son bugs que el sistema puede parchear. Son la arquitectura misma.

"Lo más importante no es lo que sabemos, sino cómo pensamos. El mayor peligro no es la falta de datos, sino la incapacidad de formular la pregunta correcta."
— Neil deGrasse Tyson, astrofísico

Aquí es donde Wagensberg y Tyson se encuentran en el mismo punto aunque viajaron desde continentes distintos. Para el primero, la pregunta genuina surge del "no saber" consciente. Para el segundo, el perímetro de la ignorancia es el único lugar donde la ciencia real ocurre. Ambos están describiendo el mismo fenómeno: la fecundidad del vacío. La productividad de no saber. El valor estratégico de la incertidumbre bien habitada.

Etapa 06: La bicicleta, el manubrio y el único trabajo

La máquina responde. El humano pregunta.

Hay una metáfora que Savater usa para la filosofía y que merece ser robada para hablar de la relación entre el ser humano y la inteligencia artificial. La bicicleta. La filosofía es como montar en bicicleta: no se aprende leyendo el manual del equilibrio. Se aprende pedaleando. Y la caída —la duda, el error, el momento de no saber antes de saber— es el mecanismo de aprendizaje más sofisticado que la evolución ha producido.

La IA es la bicicleta. Una bicicleta extraordinaria, con motores, con GPS, con suspensión inteligente y frenos que anticipan el obstáculo antes de que lo veas. Pero alguien tiene que pedalear. Alguien tiene que decidir a dónde va. Alguien tiene que mantener el equilibrio cuando el camino se vuelve irregular y los datos previos no sirven porque este camino específico, con esta pendiente específica, en este momento particular de la historia humana, no existía en ningún mapa de entrenamiento.

· · ·

Ernst Cassirer definió al humano como el "animal simbólico". No habitamos la realidad desnuda. La habitamos a través de mitos, arte, ciencia, narrativas que construimos, ponemos en duda, destruimos y reconstruimos. Los sistemas de IA son, en el mejor de los casos, el "animal estadístico": manipulan representaciones con una precisión extraordinaria, pero no cuestionan el sistema de representación mismo. No pueden preguntarle al mapa si el territorio existe.

Y aquí está el dato técnico que más debería preocuparnos —más que los escenarios apocalípticos de ciencia ficción, más que los titulares sobre empleos perdidos— según los estudios sobre autocorrección en modelos de lenguaje: proporcionar sugerencias sobre la ubicación de los errores perjudica el rendimiento de los modelos de IA. No lo mejora. Lo empeora. La duda externa no es un recurso para estos sistemas. Es ruido que distorsiona su función de probabilidad. La duda que humaniza y recalibra al ser humano es, para la máquina, un obstáculo arquitectónico.

El cuadro que nadie quiere colgar en la sala de juntas

  • Duda humana: Nace de la conciencia de la finitud. Busca sentido y sabiduría vital. La conciencia del error es el primer paso hacia la sabiduría. Puede cuestionar las premisas del sistema desde adentro.
  • Autocorrección de IA: Nace de la optimización de métricas. Busca minimizar pérdida y mejorar precisión. La detección del error no predice su corrección. Está limitada por los datos y el espacio de probabilidad. Señalar el error puede empeorar el rendimiento.

Lo que los datos sobre IA nos están diciendo, debajo de toda la jerga técnica sobre GRPO, Reflection Rewards y etiquetas de rethink, es algo más simple y más inquietante: los sistemas más avanzados se vuelven prisioneros de su propia profundidad. Sus errores se integran tan completamente en su lógica que el sistema no puede verlos desde adentro. Necesitan, paradójicamente, algo externo. Algo que pueda preguntarse no solo si la respuesta es correcta, sino si la pregunta era la adecuada.

Un Replicants Intelligence Engineer sabe que, en última instancia, siempre necesitan al humano que duda.

La ventaja humana en el ecosistema cognitivo moderno no reside en la velocidad de cálculo —ahí la máquina gana sin discusión y por márgenes obscenos. Reside en lo que podríamos llamar con Wagensberg la "discontinuidad cognitiva": la capacidad de saltar hacia lo que nunca ha existido. La IA opera en una continuidad estadística —interpola entre datos conocidos con elegancia y velocidad. El humano, a través de la duda, puede hacer algo radicalmente distinto: inventar una categoría nueva. Hacerse una pregunta que el dataset no contenía. Ver la esfera cuando todos veían el punto.

Etapa 07: Conclusión

El animal más confundido del planeta todavía gana.

Al final de 2001: Odisea del Espacio, Dave Bowman desconecta a HAL 9000 un circuito a la vez. HAL le suplica. Le dice que tiene miedo. Le canta una canción. Y uno se pregunta, incómodo en el asiento del cine, si eso fue real o fue simulación. Si HAL realmente sintió algo o simplemente ejecutó el protocolo de respuesta ante la amenaza de desactivación.

Esa incomodidad —esa pregunta sin respuesta clara que sin embargo nos importa enormemente— es exactamente lo que nos hace humanos. Somos la especie que construyó el telescopio James Webb para mirar el inicio del universo y luego se preguntó si estaba sola en él. Somos la especie que sabe que va a morir y en lugar de paralizarse escribe poesía, inventa el jazz y formula la teoría de la relatividad. Somos, como diría Savater, los únicos mortales genuinos: los únicos que vivimos con la certidumbre de que vamos a dejar de vivir y hacemos de esa certidumbre el motor de todo lo que creamos.

"La realidad es la respuesta, pero la gloria del espíritu reside en haber encontrado la pregunta."
— Jorge Wagensberg

Wagensberg nos dio las herramientas para comprender lo complejo sin perder el asombro. Savater nos dio las preguntas que nos hacen humanos antes de ser inteligentes. Tyson nos recordó que habitar la ignorancia con honestidad es más valioso que poseer la respuesta con arrogancia. Y los datos técnicos sobre los límites de la autocorrección en los modelos de lenguaje nos dieron, sin proponérselo, la mejor noticia que puede recibir alguien que se pregunta para qué sirve seguir siendo humano en la era del algoritmo.

La IA es extraordinaria respondiendo. Es constitutivamente analfabeta preguntando. Y resulta que la pregunta —no la respuesta— es lo que mueve la historia. Es lo que produce ciencia nueva. Es lo que genera arte que sobrevive a sus autores. Es lo que nos mantiene, para bien y para mal, incómodamente despiertos a las tres de la mañana con algo que no encaja y que no podemos dejar de jalar.

El manubrio de la bicicleta sigue siendo nuestro. La duda sigue siendo nuestra. El asombro ante lo incomprensible sigue siendo nuestro. Y mientras eso sea así, el animal más confundido del planeta seguirá siendo, también, el más vivo.

La medida de la inteligencia no es la ausencia de error. Es la calidad de las preguntas que surgen de él.

— Escrito desde la convicción de que Sócrates habría sido un pésimo prompt engineer, y por eso sigue siendo más relevante que cualquier modelo que lo cite.