La tecnología no te crea ni te destruye, solo te transforma

Introducción

Cada vez que aparece una tecnología nueva, alguien formula la misma pregunta con gesto grave y cejas fruncidas ¿esto nos va a salvar o nos va a destruir? Es una pregunta cómoda, dramática y profundamente equivocada.

Cada época cree vivir el final del mundo y cada final del mundo necesita profetas. Algunos llevan túnica, otros, traje oscuro y micrófono de diadema. Da igual el envoltorio, el producto es el mismo. Miedo en estado puro, convenientemente empaquetado para que parezca pensamiento crítico.

La tecnología, ese conjunto de herramientas creadas por humanos para resolver problemas humanos, ha sido, desde que existe memoria escrita, el villano preferido de quienes necesitan explicaciones simples para realidades complejas. No importa si hablamos del alfabeto, de la imprenta, del teléfono, del ordenador o de la inteligencia artificial, siempre aparece alguien dispuesto a anunciar que “esto nos va a destruir”, normalmente con gesto grave y un tono de voz que anuncia malas noticias. Y casi siempre sin haber construido, desplegado o entendido a fondo aquello que critica.

La tecnología no tiene voluntad, ni propósito moral, ni pulsión destructiva. No piensa, no decide, no conspira. No te crea ni te destruye. La tecnología te transforma. Y lo que emerge de esa transformación, para bien o para mal, dice mucho más de ti, de tus instituciones y de tus incentivos que de la herramienta en sí.

Desde hace más de medio siglo, insistimos en tratar cada innovación como si fuera un sujeto moral. El ordenador iba a embrutecer al trabajador. Internet iba a vaciar la mente. Las consolas iban a fabricar asesinos. La inteligencia artificial, amenaza con borrar el empleo, la creatividad y la humanidad misma. Cambian los objetos, pero el relato permanece.

Ese relato no nace de la evidencia, sino del miedo. Un miedo comprensible, incluso legítimo, ante la transformación acelerada. Pero que demasiadas veces es capturado, exagerado y monetizado por una fauna persistente de conspiranoicos, oportunistas y gurús del desastre que convierten la complejidad en eslogan y la incertidumbre en negocio.

Hoy, con la inteligencia artificial, el ciclo se repite como el girar de las manecillas de un reloj. Mismos tonos, mismas profecías, mismos gestos solemnes. Incluso los mismos escenarios, con foros internacionales, paneles de “expertos”, declaraciones grandilocuentes sobre el futuro de la humanidad. Y, en los márgenes más oscuros, incluso sectas que convierten el miedo tecnológico en dogma moral y justificación de la violencia, como los ya tristemente célebres Zizians.

Este artículo no niega los riesgos tecnológicos. Sería infantil e irresponsable. Tampoco cae en el optimismo ingenuo del “todo irá bien”. Lo que hace es algo más necesario, mirar la historia con memoria, desmontar patrones repetidos y señalar a quienes, década tras década, han vendido el mismo miedo reciclado con distintos envoltorios.

Porque cuando uno repasa con calma los discursos de los años 70, 80 y 90 sobre tecnología descubre un patrón tan persistente como incómodo, el de las advertencias sensatas que siempre coexistieron con una fauna de oportunistas intelectuales que encontraron en la tecnología un enemigo perfecto. Un enemigo abstracto, inagotable, siempre culpable y, sobre todo, incapaz de defenderse.

La pregunta relevante nunca fue si la tecnología nos destruiría. La pregunta real siempre fue otra ¿qué revela de nosotros la forma en que la usamos, la regulamos y la tememos?

Años 70, cuando el futuro empezó a dar miedo (y algunos hicieron caja)

Los años 70 no fueron solo una década de crisis energética, Guerra Fría y desencanto, fueron también el momento en que el progreso dejó de percibirse como una promesa inequívoca y empezó a vivirse como una amenaza difusa. La automatización industrial, los primeros ordenadores comerciales y el crecimiento acelerado de la complejidad social sembraron una sensación nueva: el futuro llegaba demasiado rápido.

En ese contexto aparece un libro que marcaría el imaginario colectivo durante décadas, el “Future Shock”. Su autor no era un charlatán de feria, era un analista lúcido, capaz de poner palabras a una ansiedad real, la incapacidad psicológica y social para adaptarse a cambios acelerados.

El concepto caló porque era cierto. El problema no era la tecnología en sí, sino la velocidad con la que alteraba normas, trabajos, identidades y expectativas.

Pero aquí aparece la primera gran distorsión. Lo que era un diagnóstico complejo empezó a simplificarse hasta convertirse en el eslogan “El cambio nos está matando.”

Y ese eslogan resultó extraordinariamente rentable.

A partir de ese momento, cualquier avance tecnológico podía interpretarse como una agresión existencial. No importaba su función concreta ni su contexto de uso. Bastaba con que fuese nuevo, rápido o difícil de entender para que se activara el reflejo pavloviano del miedo.

Es importante subrayar que la crítica inicial tenía fundamento. La automatización industrial sí desplazó trabajadores. La informatización sí exigió nuevas competencias. La reorganización del trabajo sí generó desigualdad y tensiones sociales. Pero entre reconocer esos efectos y declarar que “la tecnología destruye la sociedad” hay un salto que muchos dieron encantados.

¿Por qué? Porque el miedo tiene tres ventajas irresistibles para el oportunista intelectual:

  1. No exige precisión, basta con insinuar.
  2. No caduca. Si el desastre no llega, siempre puede retrasarse veinte años más.
  3. Genera seguidores fieles. Quien cree haber visto el abismo necesita creer que alguien lo entiende.

Así nace el gurú tecnológico moderno, no como ingeniero, ni como investigador, sino como intérprete del miedo ajeno.

Y con este caldo de cultivo, en 1976, un informático del MIT publica un libro polémico y angustiante. No porque atacase a los ordenadores, sino porque cuestionaba algo mucho más profundo, la tendencia humana a delegar la responsabilidad moral en sistemas técnicos.

Joseph Weizenbaum no hablaba desde la ignorancia. Había creado uno de los primeros programas conversacionales de la historia. Sabía exactamente de qué eran capaces las máquinas y de qué no. Su advertencia no era “las computadoras son malas”, sino algo mucho más sutil y perturbador, “hay decisiones que no deberían automatizarse, no por incapacidad técnica, sino por responsabilidad ética”.

Ese matiz es clave. También es el primero que desaparece cuando el discurso se populariza. Porque el matiz no vende, no se viraliza y no crea bandos.

Lo irónico es que las críticas más serias y mejor informadas sobre tecnología raramente se convierten en dogma, precisamente porque no ofrecen certezas absolutas. Ofrecen dilemas y los dilemas no convierten a nadie en salvador.

Y mientras los gurús llenaban auditorios con advertencias vagas, las instituciones públicas trabajaban en silencio. En Estados Unidos, el Congreso encargó durante los años 70 y 80 estudios exhaustivos sobre automatización, productividad y empleo. No eran panfletos ideológicos, eran documentos técnicos, llenos de escenarios, condicionantes y advertencias prudentes.

Su conclusión principal fue tan poco espectacular como poco deseada. Concluyeron que
la automatización no destruye “el trabajo” como categoría abstracta, pero sí transforma tareas, redistribuye poder y exige políticas activas de adaptación.

No había apocalipsis, ni tampoco paraíso. Lo que había era complejidad. Y la complejidad no suele invitar a nadie a dar charlas TED.

Años 80, la oficina informatizada y el miedo con corbata

Si en los 70 el miedo vestía mono industrial, en los 80 se puso traje y corbata. La amenaza ya no era el robot en la fábrica, sino el ordenador en la oficina. Los procesadores de texto (como el Word), hojas de cálculo (como excel) y bases de datos (como SQL) eran herramientas que prometían eficiencia y despertaban pánico.

Se dijo que millones de empleos administrativos desaparecerían, que secretarias, contables y auxiliares serían sustituidos por máquinas y que la productividad eliminaría la necesidad de personas.

Nada de esto era completamente falso y, al mismo tiempo, nada de esto ocurrió como se profetizó.

Las tareas cambiaron. Las oficinas se transformaron. Surgieron nuevos perfiles. La carga de trabajo no disminuyó y se intensificó. El error conceptual fue siempre el mismo, el de creer que la productividad libera tiempo en un sistema que premia la ocupación constante.

La tecnología no eliminó trabajo., lo que eliminó fueron los márgenes de respiro.

Otra profecía estrella de los 80 fue la famosa “paperless office”. Los ordenadores acabarían con el papel. De nuevo, el resultado fue exactamente el contrario. Nunca antes se había impreso tanto. Porque cuando producir documentos se vuelve barato, la cantidad se dispara.

Este fenómeno, repetido una y otra vez en la historia de la tecnología, desmonta el pensamiento mágico de muchos gurús ya que las herramientas no determinan el comportamiento humano de forma lineal, lo amplifican. Y cuando amplifican sistemas mal diseñados, el resultado es más caos, no menos.

Años 90 y el nuevo demonio universal llamado “internet”

En los años 90, irrumpe internet en la vida pública. Y con él, una nueva ola de profetas. Algunos anunciaban la utopía digital. Otros, la decadencia definitiva. Entre estos últimos, destacó un autor que se convirtió en referencia obligada del escepticismo tecnológico.

Su argumento central era sencillo. Decía que internet estaba sobrevalorado, fomentaba superficialidad, aislamiento y fraude intelectual. En veinte años, aseguraba esta mente brillante, no sería más que una curiosidad inflada. El responsable de esta predicción no era un periodista con ínfulas de tecnovisionario sino que se trataba de un astrónomo, informático y divulgador, autor del artículo “The Internet? Bah!” donde afirmaba que internet no era más que una burbuja intelectual destinada a pinchar.

Veinte años después, internet no solo no desapareció, sino que reconfiguró economía, política, relaciones sociales y producción cultural. Pero esto no significa que las críticas sobre internet fueran estúpidas, significa algo más inquietante, que las críticas se quedaron en la superficie y confundieron el medio con sus usos iniciales.

La historia de la tecnología está llena de críticos que analizaron el presente como si fuera el futuro definitivo.

Entre estas profecías, en los 90 reaparece con fuerza el viejo anuncio sobre que el trabajo se acaba. Automatización, informática, globalización. Todo converge para eliminar empleo humano.

El problema de estas narrativas no es que identifiquen tendencias reales. El problema es su obsesión por el titular absoluto. El trabajo no se acabó, lo que se erosionó fue la estabilidad, la calidad y el contrato social que lo rodeaba.

Pero eso la tecnología exige hablar de política, poder, regulación y distribución. Pero esto es mucho más incómodo y complejo que culpar a una máquina.

El patrón psicológico de por qué el miedo tecnológico siempre vuelve

Aquí conviene detenerse y mirar el mecanismo de fondo, porque no es casual, no es ignorancia, es psicología social.

El discurso “la tecnología nos destruye” cumple varias funciones emocionales poderosas. Por un lado, externaliza la culpa, ya que no somos nosotros, es la máquina. Por otro, simplifica el mundo proporcionando un enemigo claro y una causa única. Además, crea la identidad de “nosotros, los que vemos la verdad” y nos ofrece sentido moral para resistir creyendo que eso es ser bueno.

Cuando este discurso se profesionaliza, aparecen los gurús. Cuando se radicaliza, aparecen las sectas.

Y es aquí cuando debemos hablar del caso más perturbador del presente. Los Zizians no son una anécdota, son la versión extrema de un fenómeno que empieza mucho antes, el de la transformación del miedo tecnológico en misión moral absoluta.

En su núcleo encontramos los mismos ingredientes de siempre, una apocalipsis inminente, una responsabilidad heroica, la deshumanización del enemigo y la justificación del daño “por un bien mayor”.

No son “expertos en IA”, no son críticos técnicos, son creyentes. Y la historia demuestra que cuando el miedo se convierte en identidad cerrada, el pensamiento crítico desaparece.

Hoy, la inteligencia artificial ocupa el lugar que antes ocuparon el ordenador, internet o el robot industrial. Mismos gestos, mismas frases y mismos horizontes temporales. Nos dicen “en veinte años…”.

En foros internacionales se habla de riesgos reales. Y es necesario, pero también se escenifica algo muy humano, la necesidad de parecer imprescindible. Advertir da estatus y controlar el relato da poder.

La pregunta clave no es si la IA tiene riesgos, porque es evidente que los tiene. La pregunta es quién habla de ellos, desde dónde y con qué experiencia real.

El reciclaje del pánico, el experto instantáneo y la industria del “yo ya lo advertí”

Si uno observa con un mínimo de distancia histórica a los profetas tecnológicos de las últimas cinco décadas, descubre algo inquietante. No son tan distintos entre sí. Cambian las palabras clave, los ejemplos y los escenarios, pero la estructura mental permanece intacta.

El gurú tecnológico no necesita entender profundamente la tecnología, solo necesita interpretarla emocionalmente. Su función no es explicar cómo funciona un sistema, sino cómo debería hacernos sentir. Y casi siempre, ese sentimiento es miedo.

El personaje se construye sobre cinco pilares:

  1. Urgencia moral

Todo es grave. Todo es inmediato. Todo es “ahora o nunca”. La pausa, el análisis y la espera son lujos que, según él, no podemos permitirnos.

  1. Lenguaje absolutista

No hay probabilidades, hay destinos. No hay escenarios, hay certezas. No hay “puede”, hay “va a”.

  1. Experiencia ambigua

El gurú rara vez miente explícitamente sobre su trayectoria. Simplemente la formula de forma que suene más profunda de lo que es. “He trabajado con…” suele significar “he opinado sobre…”.

  1. Desplazamiento del foco

Nunca se discuten incentivos, estructuras económicas, modelos de gobernanza o responsabilidad política. El culpable es siempre abstracto: “la tecnología”, “el algoritmo”, “la máquina”.

  1. Impunidad histórica
  2. Cuando la profecía falla, no pasa nada. El público no exige rendición de cuentas. El gurú simplemente actualiza el mensaje y sigue adelante. El miedo no caduca, solo se recicla.

Este arquetipo no es nuevo. Es la versión contemporánea del predicador del fin del mundo que, cuando el mundo no se acaba, mueve la fecha.

Uno de los mayores fraudes intelectuales del debate tecnológico es la confusión deliberada entre criticar y predecir.

Criticar una tecnología implica analizar sus efectos, límites y riesgos en contextos concretos. Predecir implica afirmar que se conoce el resultado final de procesos complejos y abiertos.

El gurú nunca dice “esto puede generar problemas bajo ciertas condiciones”. Dice “esto va a destruir X”. No porque tenga mejores datos, sino porque la profecía vende mejor que el análisis.

Aquí conviene ser cruelmente claros. La mayoría de las grandes advertencias tecnológicas de los últimos 50 años no fallaron porque fueran demasiado prudentes, sino porque eran demasiado seguras de sí mismas.

No dijeron “habrá ganadores y perdedores”, “la transición será desigual” o “el problema será político, no técnico”.

Dijeron “esto acabará con el trabajo”, “esto destruirá la inteligencia humana”, “esto nos deshumanizará”.

Y cuando eso no ocurrió de forma literal, nadie pasó factura.

El debate público sobre tecnología suele organizarse como una pelea infantil de optimistas contra pesimistas, utopía contra distopía o salvación contra destrucción.

Es un debate cómodo, pero completamente inútil.

La tecnología no es ni buena ni mala en abstracto, simplemente es potente. Y la potencia amplifica aquello que ya existe, como estructuras sociales, incentivos económicos, desigualdades previas o virtudes y miserias humanas.

Cuando un gurú dice “la tecnología es el problema”, está haciendo dos trampas a la vez. Primero, oculta la responsabilidad humana, asumiendo que el culpable es la cosa, no quienes la usan o la gobiernan. Lo segundo es que evita el conflicto real, porque discutir de tecnología es más cómodo que discutir de poder, de dinero o de política. Las máquinas no se defienden, pero los intereses sí.

Este desplazamiento del foco es uno de los grandes éxitos retóricos del discurso tecnófobo. Y también uno de los más dañinos.

Y así llegamos a uno de los puntos más delicados y más necesarios a comentar, el de la experiencia real.

Vivimos una paradoja fascinante. Nunca antes había sido tan fácil opinar sobre tecnologías emergentes y nunca antes había sido tan difícil encontrar personas que realmente las conozcan en profundidad.

Porque conocer una tecnología no es haber leído sobre ella. No es haber dado una charla. No es haber escrito un artículo de opinión. Conocer una tecnología implica haber trabajado con sistemas reales, haber visto fallar modelos en producción, haber sufrido limitaciones técnicas, haber lidiado con datos sucios y haber entendido costes, escalabilidad y compromisos.

Esto no convierte automáticamente a nadie en sabio, pero sí marca una frontera clara entre quien habla desde la fricción de lo real y quien habla desde la comodidad del relato.

La famosa idea de que se necesitan “diez años” para ser experto no es una ley natural, pero apunta a algo importante, que el conocimiento profundo requiere tiempo, iteración y error. Y el discurso público actual sobre IA está plagado de personas que critican sistemas con meses o semanas de contacto superficial. A veces incluso tecnologías que no llevan más de uno o dos años de desarrollo.

El resultado es una avalancha de diagnósticos categóricos construidos sobre demos, fakes, titulares y metáforas.

Inteligencia artificial y la repetición casi perfecta del guion

Si alguien hubiera guardado los discursos alarmistas sobre el ordenador personal en los 80, sobre internet en los 90 y sobre las redes sociales en los 2000, podría hoy cambiar unas cuantas palabras y usarlos tal cual para hablar de IA.

El patrón es inquietantemente preciso:

  • “Va a destruir millones de empleos.”
  • “Va a erosionar la capacidad humana.”
  • “Va a concentrar el poder en pocas manos.”
  • “Va a acabar con la creatividad / la verdad / la democracia.”

¿Son preocupaciones legítimas? Algunas, sí.

¿Están formuladas con rigor? Muchas, no.

Porque de nuevo se confunden planos distintos:

  • Capacidad técnica actual vs. promesas futuras.
  • Uso concreto vs. potencial teórico.
  • Problemas de gobernanza vs. propiedades intrínsecas del sistema.

La IA no “decide” reemplazar trabajadores, son las empresas deciden cómo usarla. La IA no “elige” concentrar poder, son las estructuras económicas las que lo hacen. La IA no “destruye” la verdad, es por culpa de los incentivos informativos por lo que la erosionan.

Pero señalar eso exige incomodar a actores humanos concretos. Y eso no suele ser bien recibido en foros con patrocinadores.

El Foro Económico Mundial se ha convertido en el escenario perfecto para el nuevo miedo tecnológico, solemne, bien iluminado y perfectamente institucionalizado.

Allí se advierte sobre los riesgos de la IA con tono grave, lenguaje cuidadosamente medido y una puesta en escena que transmite responsabilidad. Y, sin embargo, el fondo emocional es el mismo de siempre, el de “esto es enorme, peligroso y necesita que alguien lo controle”.

La pregunta incómoda es ¿quién es ese alguien?

Porque muchas de las advertencias más sonoras vienen de actores que se beneficiarían directamente de un determinado tipo de regulación, de barreras de entrada o de control narrativo. No es conspiración, es economía política básica.

Esto no invalida automáticamente sus argumentos. Pero sí exige algo que rara vez se hace, el analizar los incentivos del mensajero.

El gurú clásico vendía libros y conferencias. El gurú contemporáneo vende influencia, control y legitimidad.

El miedo ha subido de categoría.

Y aquí este artículo entra en su zona más oscura. Porque no todo el miedo tecnológico se queda en columnas de opinión o paneles internacionales, a veces, se transforma en algo mucho más peligroso, una cosmovisión cerrada.

El caso de los Zizians no es una excentricidad irrelevante, es un síntoma extremo de un fenómeno más amplio, el de que cuando el relato apocalíptico se combina con aislamiento social, certeza moral y deshumanización del otro, la crítica se convierte en dogma.

No se trata de IA, en el fondo. Podría haber sido cualquier otra amenaza existencial. La tecnología solo actúa como catalizador simbólico.

El patrón sectario es reconocible. El mundo está al borde del colapso, solo unos pocos lo ven, cualquier desacuerdo es complicidad y el daño está justificado por el bien mayor.

No todos los críticos de la IA están cerca de esto, obviamente, pero todos los discursos apocalípticos comparten una misma estructura emocional. Y esa estructura merece ser señalada, no normalizada.

Llegados a este punto, la pregunta inevitable es, si la tecnología no es el enemigo, ¿cuál es el problema real?

La respuesta es menos épica y más desagradable. Los culpables son varios, entre los que se encuentran las instituciones lentas frente a cambios rápidos, la distribución desigual de beneficios, la falta de alfabetización tecnológica real, los incentivos económicos mal alineados y la externalización sistemática de costes sociales.

Nada de eso se soluciona demonizando una herramienta y nada de eso se soluciona con profecías. Da igual la tecnología o el elemento demonizante, el problema seguirá latente.

Se soluciona con políticas públicas, negociación social, regulación inteligente y, sobre todo, responsabilidad colectiva. Pero eso exige trabajo y  recordemos que el miedo es más barato.

Y la última pregunta es quizás la más dolorosa. Si este patrón se repite desde hace décadas, ¿por qué seguimos cayendo?

Pues, en mi opinión, porque el miedo tecnológico ofrece algo que el análisis no ofrece,
una narrativa clara en un mundo confuso. Nos tranquiliza pensar que el problema es una cosa externa, nueva y monstruosa. Nos exime de mirar nuestras propias decisiones, estructuras y contradicciones. Y porque, seamos honestos, también nos gusta sentirnos especiales. Sentir que vemos lo que otros no ven. Que estamos despiertos mientras los demás duermen.

El gurú explota exactamente eso.

Conclusión

La tecnología nunca ha sido el enemigo. El enemigo ha sido siempre la pereza intelectual, el miedo rentable y la tentación de convertir problemas complejos en cuentos morales simples.

Cada generación ha tenido sus profetas del desastre. Ninguno acertó en lo esencial. Pero todos dejaron huella. No por sus predicciones, sino por su capacidad para modelar el miedo colectivo.

Y aquí está la ironía final. La tecnología seguirá avanzando y con ella los conspiranoicos y los oportunistas.

Después de recorrer medio siglo de alarmas tecnológicas, profecías fallidas y advertencias legítimas mezcladas con charlatanería, la conclusión es menos épica de lo que algunos desearían, pero infinitamente más honesta:

La tecnología no crea sociedades nuevas desde cero, no destruye lo que no estaba ya agrietado, solo transforma lo que encuentra, amplifica lo que existe y expone lo que preferíamos no ver.

La automatización no “acabó con el trabajo”, lo que hizo fue evidenciar la fragilidad del contrato social. Internet no “destruyó la verdad”, solo puso en crisis sistemas informativos que ya eran débiles. La inteligencia artificial no “deshumaniza”, nos obliga a preguntarnos qué partes de lo humano estamos delegando sin pensar.

El error histórico ha sido siempre el mismo, el de atribuir a la herramienta una agencia moral que no tiene, mientras se absuelve a quienes deciden cómo se diseña, se despliega y se gobierna. Es más fácil culpar a una máquina que señalar incentivos económicos, asimetrías de poder o irresponsabilidad política.

Por eso los conspiranoicos y oportunistas necesitan que la tecnología sea el enemigo, porque un enemigo abstracto no exige matices, un enemigo abstracto no pide soluciones complejas y un enemigo abstracto permite vender certezas en un mundo incierto.

La historia demuestra que los grandes profetas del desastre tecnológico casi nunca aciertan en lo esencial, pero también demuestra que tampoco se les exige rendir cuentas. El miedo se recicla, se actualiza y vuelve a empezar.

Hoy, con la inteligencia artificial, tenemos dos opciones. Repetir el ritual y demonizar, profetizar, asustarnos y buscar salvadores. O hacer algo más útil, el aceptar que la tecnología no nos juzga, sino que nos refleja y tratar de cambiar.

Quizá esa sea la razón última del pánico recurrente. Porque mirarse de verdad, y sin excusas, siempre ha sido mucho más incómodo que culpar a otros, en este caso a una máquina.

La tecnología no te crea, no te destruye, te transforma. Y lo que salga de esa transformación ya no depende de ella.

Referencias

  • Associated Press. (2023–2025). Coverage on Zizian group investigations and related court documents. Associated Press.
  • Autor, D. H., Levy, F., & Murnane, R. J. (2003). The skill content of recent technological change. The Quarterly Journal of Economics, 118(4), 1279–1333.
    https://doi.org/10.1162/003355303322552801
  • Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
  • Brynjolfsson, E., & McAfee, A. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. W. W. Norton & Company.
  • Douglas, K. M., Sutton, R. M., & Cichocka, A. (2017). The psychology of conspiracy theories. Current Directions in Psychological Science, 26(6), 538–542.
    https://doi.org/10.1177/0963721417718261
  • Floridi, L. (2023). Ethics, governance, and policies of artificial intelligence. Springer.
  • Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
  • Postman, N. (1992). Technopoly: The surrender of culture to technology. Alfred A. Knopf.
  • Rifkin, J. (1995). The end of work: The decline of the global labor force and the dawn of the post-market era. G. P. Putnam’s Sons.
  • Stoll, C. (1995). Silicon snake oil: Second thoughts on the information highway. Doubleday.
  • Stoll, C. (1995, February 27). The Internet? Bah! Newsweek.
  • Sunstein, C. R. (2018). #Republic: Divided democracy in the age of social media. Princeton University Press.
  • Sunstein, C. R., & Vermeule, A. (2009). Conspiracy theories: Causes and cures. Journal of Political Philosophy, 17(2), 202–227.
    https://doi.org/10.1111/j.1467-9760.2008.00325.x
  • Toffler, A. (1970). Future shock. Random House.
  • U.S. Congress, Office of Technology Assessment. (1985). Automation of America’s offices, 1985–2000. U.S. Government Printing Office.
  • World Economic Forum. (2023). Global risks report 2023. World Economic Forum.

Deja un comentario

Descubre más desde SERGIO COLADO

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo