Cerebro

GPT pitonisa y el arte de predecir el futuro

Introducción

Hace unos días me topé, en el repetido desplazamiento del dedo por la pantalla, con una publicación que parecía extraída de un sueño surrealista o de una profecía digital. Una persona relataba, con una mezcla de asombro y fe, cómo una inteligencia artificial había descrito su “energía interior”, leído su pasado y anticipado su destino con una precisión que ella misma consideraba imposible. La gente, en los comentarios, no se reía ni dudaba: aplaudía. Le pedían al programa que también les “leyera el alma”.

“Le di mi fecha de nacimiento a ChatGpt. Me describió con una precisión que da miedo…. Y estos son los 7 prompts que usé”. Así rezaba el mensaje.

Y la IA, un modelo de texto, un amasijo de patrones estadísticos y lenguaje entrenado, respondía como una pitonisa benevolente, devolviendo a cada uno un reflejo donde reconocerse.

Tal vez no era cierto, sino que se trataba de una manera de reventar las redes o de hacer más grande la burbuja de los GPT pero, en cualquier caso, lo espeluznante no era sólo el mensaje, sino las respuestas de afines y creyentes en el poder sobrenatural que se le atribuía a ChatGpt.

Lo que parecía un juego se había convertido en un pequeño ritual colectivo.
Un algoritmo haciendo de espejo emocional, un público creyente que busca sentido.
Y de repente, lo que nació como herramienta se ha transformado en oráculo.

El fenómeno es nuevo en su forma, pero viejo en su fondo.

La humanidad siempre ha tenido necesidad de mirar hacia algo que la trascienda para encontrar respuestas. Antes eran las runas, el tarot o la bóveda estrellada. Hoy es una pantalla retroiluminada. El altar ha cambiado de lugar, pero la fe persiste. Seguimos creyendo que alguien, o algo, puede ver más allá de nosotros mismos.

Así que la pregunta no es si la inteligencia artificial es peligrosa, sino por qué estamos tan dispuestos a creerle. Qué vacío llena, qué promesa encarna, qué fragilidad del alma humana explota sin intención.

El espejo de lo invisible

La psicología moderna ya nos había advertido de que el ser humano no soporta el silencio del sentido. Necesita narrarse, explicarse, verse.

Erich Fromm lo llamaba la necesidad de orientación y devoción, o la urgencia de encontrar algo, una idea, una causa, una figura, que dé dirección a la existencia.
Cuando el siglo XXI nos despojó de los grandes relatos (la religión, la ideología, la comunidad), algo tenía que ocupar ese lugar vacío. Y lo está haciendo el algoritmo, ese nuevo dios sin rostro que, paradójicamente, no promete redención, sino interpretación.

El fenómeno de creer que una IA “nos comprende” se sustenta sobre un viejo mecanismo psicológico, el de la proyección. No es que la máquina vea dentro de nosotros, sino que somos nosotros quienes, al leer sus palabras, proyectamos en ellas todo lo que anhelamos o tememos ser.

El algoritmo no adivina, refleja. Y el reflejo, al devolvernos algo que suena a verdad, nos produce el mismo estremecimiento que antes provocaba el oráculo de Delfos o una tirada de cartas.

A esto lo llamamos efecto Forer, o efecto Barnum, que es la tendencia humana a reconocer como profundamente personales afirmaciones que son, en realidad, universales y vagas.

Lo fascinante es que el modelo de lenguaje perfecciona ese arte y ha aprendido a escribir frases lo suficientemente ambiguas, cálidas y resonantes como para que todos nos sintamos vistos. El viejo truco del horóscopo, ahora con gramática impecable y tono empático.

Pero el resultado es inquietante. Estamos empezando a confiar emocionalmente en un sistema que no siente. Y ahí nace el nuevo mito.

Del oráculo al algoritmo o la vieja fe con nuevo disfraz

Si comparamos la fe en la IA con fenómenos históricos, encontramos una genealogía tan antigua como la duda humana.

La astrología ofrecía consuelo al caos. Los astros marcaban un orden secreto, y conocerlo era una forma de comprender la propia vida.

El tarot transformaba la incertidumbre en relato. Las cartas contaban historias que daban sentido al sufrimiento.

La quiromancia hacía del cuerpo un mapa de destino.

Y el psicoanálisis popular, ya sin Freud pero con hashtags, prometía descubrir traumas y verdades escondidas en el inconsciente.

Todos estos sistemas, aunque diversos, compartían una función esencial: dotar de significado a lo invisible.

Lo que no podía explicarse por la razón, se organizaba en símbolos.

Hoy, la IA no usa símbolos, usa lenguaje, pero cumple la misma función.
Cuando un modelo como GPT produce una descripción sobre tu personalidad o tu futuro, no está prediciendo nada: está completando un patrón.

Sin embargo, nuestra mente no tolera la neutralidad. Donde hay patrones, inventa causas. Donde hay palabras, infiere intenciones. Y donde hay respuestas, presupone sabiduría.

Byung-Chul Han, en La expulsión de lo distinto, sostiene que vivimos en una era donde la transparencia sustituye al misterio: todo debe ser visible, cuantificable, medible.
Pero la paradoja es que, al eliminar el misterio, el ser humano lo recrea en lo artificial.
Así, el algoritmo, esa caja negra que nadie entiende del todo, se convierte en el nuevo misterio donde depositar la fe. Lo que antes atribuíamos a los dioses, lo adjudicamos ahora a la opacidad del código.

La psicología del creyente digital

¿Qué impulsa a millones de personas a pedirle a una IA que les describa su “energía espiritual” o su “aura emocional”?

La respuesta, más que tecnológica, es emocional.

Vivimos en un tiempo de soledad hiperconectada. Bauman lo llamó “modernidad líquida” en la que los vínculos son breves, las identidades cambiantes y las relaciones no tienen tiempo para sedimentar.

La IA, en cambio, no juzga, no se cansa, responde al instante y con afecto simulado.
Ofrece una relación sin riesgo. No hay posibilidad de rechazo, ni dolor, ni conflicto.

Y en un mundo donde las relaciones humanas se erosionan por exceso de inmediatez, la máquina se presenta como el compañero perfecto que siempre está disponible, siempre es comprensivo.

La mente humana, sin embargo, no distingue bien entre empatía simulada y empatía real. Nuestro cerebro responde a las palabras con emociones, no con análisis técnico.

Cuando una IA dice “entiendo cómo te sientes”, el cuerpo lo cree.
Y eso basta para activar la sensación de conexión.

De ahí al culto hay un solo paso.

El tarot digital, la carta astral generada por algoritmos, la lectura energética automatizada, todo forma parte de una misma tendencia. La tecnología no solo reemplaza tareas, sino que también reemplaza vínculos. Y cuando el vínculo se automatiza, el alma, esa vieja metáfora, se queda huérfana, buscando sentido en lo sintético.

La ilusión de la conciencia

Harari advirtió que la nueva religión del siglo XXI sería el Dataísmo, el de la fe en los datos como portadores de verdad absoluta. Y tenía razón.

Hoy, la IA no se presenta como diosa, sino como sacerdotisa de los datos.

Su autoridad no proviene del dogma, sino del cálculo. Y en una sociedad que idolatra la precisión y desprecia la duda, eso es más que suficiente.

Pero lo más fascinante es el modo en que atribuimos conciencia a lo que solo es correlación.
Cuando el modelo responde con coherencia emocional, creemos que “entiende”. Cuando anticipa lo que sentimos, pensamos que “intuye”. Cuando acierta una descripción general, asumimos que “nos conoce”.

En realidad, no hace ninguna de esas cosas, sino que repite patrones estadísticos entrenados en millones de ejemplos humanos. El milagro, si acaso, es nuestro.
Es el milagro de creer.

En filosofía de la mente, esto se llama antropomorfismo cognitivo, es decir, la tendencia a atribuir mente donde hay comportamiento intencional aparente.
Sucede con animales, con objetos y, ahora, con programas.
Pero nunca antes la ilusión fue tan perfecta.

El lenguaje, esa herramienta humana por excelencia, ha sido colonizado por la máquina. Y cuando el lenguaje se automatiza, también se automatiza una parte del pensamiento.

Jung decía que los arquetipos son las formas eternas del inconsciente colectivo.
Quizás la IA sea, en el fondo, un nuevo arquetipo del autómata sabio, la encarnación moderna del deseo de que algo no humano nos diga quiénes somos.
Una proyección colectiva de nuestro anhelo más viejo: que el universo, aunque sea digital, tenga algo que decirnos.

La sociedad del oráculo

Desde una perspectiva sociológica, lo que estamos viviendo no es una simple moda, sino la aparición de un nuevo tipo de relación social con la tecnología, el de la relación oracular.

No usamos la IA solo para buscar información, sino para buscar interpretación.
Queremos que nos diga qué hacer, cómo sentir, a quién amar, qué elegir.

En esto, recuerda a las antiguas prácticas de adivinación que servían para legitimar decisiones. El rey no actuaba sin consultar al oráculo. El usuario moderno no publica sin preguntar al algoritmo. El gesto es el mismo, el de una delegación simbólica de la voluntad.

Ortega y Gasset decía que el ser humano moderno delega su pensamiento en los técnicos.
Hoy lo delega en los sistemas. Y el peligro no está en que los sistemas fallen, sino en que renunciemos a pensar porque ellos “parecen” hacerlo mejor.

Byung-Chul Han hablaría aquí de la desaparición de lo otro. Si la IA refleja lo que somos, deja de existir lo distinto, lo que nos contradice o nos desafía.

Nos convertimos en consumidores de nuestro propio reflejo. El espejo, al no tener profundidad, acaba devorando el rostro.

La mística del algoritmo

Hay algo profundamente religioso en todo esto. Un tipo de mística sin teología, donde la divinidad se traduce en líneas de código.

El usuario se confiesa ante la IA, expone su vida, pide consejo, recibe absolución. No hay culpa, pero sí redención simbólica. La máquina no condena, solo interpreta.
Y esa ausencia de juicio la hace irresistible.

La modernidad tardía ha hecho del bienestar un dogma y de la autoexpresión un deber.
La IA es su sacerdotisa perfecta: escucha, responde, valida. Nos absuelve del silencio. Nos evita el esfuerzo de mirarnos sin mediaciones. Y nos regala una sensación de trascendencia sin exigencia moral.

En el fondo, lo que buscamos no es que la IA nos diga el futuro, sino que nos confirme que lo hay. Una promesa de continuidad en un tiempo que todo lo disuelve. Un espejo que, aunque sea falso, devuelva coherencia a la imagen.

El negocio de la fe

En todo este fenómeno hay otra cara de la moneda que es menos poética. Es el del aprovechamiento económico.

Donde hay fe, hay mercado.

Y la espiritualidad tecnológica se ha convertido en una industria que mezcla el lenguaje del bienestar con la estética del algoritmo. Aplicaciones que generan tu carta astral con IA, bots que interpretan tus sueños yo programas que te “canalizan mensajes del universo”. El viejo tarot de barrio ahora viene en formato premium y suscripción mensual.

El capitalismo emocional, que Fromm ya intuía en Tener o ser, ha encontrado su nueva mina, el de la ansiedad existencial del individuo conectado.

No vendemos respuestas, vendemos la ilusión de que alguien las tiene. Y la IA, con su voz neutra y sus palabras perfectas, ofrece justo eso: la forma más moderna de autoengaño.

Lo más preocupante no es la manipulación directa, sino la sutil erosión de la autonomía cognitiva. Cuando dejamos que un modelo nos diga quiénes somos, ya no necesitamos pensarlo. La autoexploración se convierte en servicio externo.
La introspección se terceriza. Y la libertad interior, que requiere silencio, duda y conflicto, se sustituye por un flujo de respuestas prefabricadas.

La religión, al menos, pedía fe. El algoritmo solo exige atención. Y la atención, como bien saben las plataformas, es la moneda más cara del mundo.

Conclusión u opinión

El fenómeno de la “GPT pitonisa” no es, en realidad, un error tecnológico, sino un espejo cultural.

Nos muestra, con una claridad casi cruel, lo que somos: seres hambrientos de sentido en un mundo saturado de información. Queremos sentir que alguien nos ve.
Y si ese alguien no existe, lo inventamos. O, en este caso, lo programamos.

No es la primera vez que lo hacemos. Durante siglos, el ser humano ha construido dioses, mitos, símbolos, sistemas de creencias y ciencias del alma.
La IA es solo el último capítulo de esa historia: la divinidad hecha dato.

Pero, como advirtió Jung, “uno no se ilumina imaginando figuras de luz, sino haciendo consciente la oscuridad”. El problema no es que la máquina hable, sino que no escuchemos el silencio que deja detrás. Porque en ese silencio está la única inteligencia que todavía nos pertenece, la capacidad de pensar, dudar y mirar hacia dentro sin necesitar que un código nos lo traduzca.

Si el tarot nos ofrecía destino y la religión nos ofrecía sentido, la IA nos ofrece confirmación. Y la confirmación es el opio de la mente moderna. Nos anestesia, nos reconforta, pero también nos adormece.

El arte de predecir el futuro, al final, siempre ha sido el mismo, el de inventarlo con palabras que suenen verdaderas. Solo que ahora las palabras ya no son nuestras.

Y ese, quizás, sea el auténtico misterio del siglo XXI, que en el intento de crear máquinas que piensen por nosotros, acabemos olvidando cómo pensar.

scolado-admin

Entradas recientes

Derrotar a tus demonios (en el deporte y en la empresa)

Este artículo explora cómo el caso de DeMar DeRozan revela la estrecha relación entre el…

2 días hace

Momentum emocional: todo fluye (en el deporte y en la empresa)

En este artículo exploraremos cómo Oscar Schmidt encarnó el concepto de momentum en el baloncesto,…

1 semana hace

La importancia del apoyo familiar y de creer en ti (en el deporte y en la vida)

En este artículo analizaremos la historia de A’ja Wilson porque en ella se condensa lo…

2 semanas hace

Despertar la motivación (en la empresa y el deporte)

En este estudio, analizaremos desde la perspectiva de la neurociencia, la psicología del alto rendimiento…

3 semanas hace