Introducción
Hay una idea reconfortante que nos acompaña desde hace siglos, la de que el mundo puede ir mal por muchas razones, pero no porque esté dirigido por idiotas. Puede haber corrupción intereses cruzados errores estratégicos incluso maldad. Todo eso tranquiliza.
La maldad se combate, el error se corrige, el interés se negocia, pero la estupidez, no, porque la estupidez no responde a incentivos, no aprende de la experiencia y no se reconoce a sí misma como tal. Y ahí empieza el verdadero problema.
Vivimos una época obsesionada con el talento, la formación y la inteligencia. Nunca se ha hablado tanto de competencias, pensamiento crítico, liderazgo informado o toma de decisiones basada en datos. Nunca se ha medido tanto el coeficiente intelectual, ni se ha producido tanto conocimiento accesible. Y sin embargo las decisiones que configuran el mundo parecen cada vez más torpes, más cortoplacistas y más peligrosamente seguras de sí mismas.
No es una paradoja, es una consecuencia. La estupidez no ha desaparecido con la educación, ni con la tecnología, sólo se ha sofisticado, se ha vuelto respetable y se ha institucionalizado. Hoy la estupidez ya no observa desde una esquina, sino que firma sentencias, dirige empresas, legisla países y diseña sistemas tecnológicos de alcance planetario.
No es ignorancia, tampoco falta de datos. Es algo más inquietante, es la combinación letal entre incompetencia no reconocida, exceso de confianza y acción dentro de sistemas complejos cuyas consecuencias nadie es capaz de anticipar del todo. Una combinación amplificada por estructuras sociales, políticas y tecnológicas que premian la seguridad y penalizan la duda.
Este fenómeno no es anecdótico, ni reciente, ni atribuible a una generación concreta. Tiene nombre, tiene marco teórico y tiene evidencia acumulada. Uno de los primeros en atreverse a formularlo sin adornos fue Carlo M. Cipolla.
Cipolla definió la estupidez de una forma tan incómoda como precisa. Estúpido no es quien sabe poco, ni quien se equivoca. Estúpido es quien causa daño a otros sin obtener beneficio propio e incluso perjudicándose a sí mismo.
Esta es una definición que elimina cualquier coartada moral o intelectual. La estupidez no es falta de capacidad, sino una forma de comportamiento y por eso es tan peligrosa.
A diferencia del malvado, el estúpido no calcula. A diferencia del ignorante, no duda. A diferencia del incompetente consciente, no se detiene. Actúa con convicción y, al hacerlo, genera pérdidas que nadie puede compensar, porque no responden a un interés racional.
La gran aportación de Cipolla no fue insultar a nadie, sino advertir de un problema estructural. La estupidez es transversal. No respeta títulos, ni cargos, ni clases sociales. Está distribuida de forma sorprendentemente uniforme. Y, precisamente por eso, es el factor más desestabilizador de cualquier sistema humano.
Durante décadas esta idea parecía cómica. Hoy ya no hace tanta gracia porque, cuando se observa el funcionamiento de las democracias, la gestión de grandes corporaciones, la conversación pública o la implementación de tecnologías de alto impacto, la descripción encaja demasiado bien.
La pregunta ya no es si existen personas estúpidas en posiciones de poder. Eso siempre ha ocurrido. La pregunta inquietante es si nuestros sistemas actuales seleccionan, amplifican precisamente ese tipo de comportamiento y premian la seguridad injustificada, la simplificación grosera y la acción rápida sin comprensión profunda.
Y aquí es donde la estupidez deja de ser un problema individual para convertirse en un fenómeno cognitivo social, político y tecnológico.
No estamos ante un colapso de la inteligencia, sino ante un colapso de la metacognición. La incapacidad de saber cuándo no se sabe. La renuncia a pensar despacio en un mundo que confunde velocidad con eficacia. La sustitución de la duda por opinión firme como símbolo de prestigio.
Este artículo no pretende señalar culpables individuales ni ofrecer consuelo moral. No busca héroes, ni villanos. Busca entender por qué una sociedad, aparentemente más informada que nunca, toma decisiones cada vez más estúpidas y por qué esas decisiones ahora tienen un alcance capaz de afectar a la continuidad de la propia especie.
Porque cuando la estupidez opera en sistemas simples, el daño es limitado, pero cuando actúa en sistemas complejos interconectados y automatizados, el resultado ya no es un error, es un riesgo existencial.
La incompetencia no se reconoce
Hay una creencia profundamente arraigada que actúa como anestesia intelectual. La de que las personas incompetentes suelen ser conscientes de sus limitaciones. Que quien no sabe, duda. Que quien se equivoca, aprende. Que el error genera prudencia.
La evidencia científica dice exactamente lo contrario.
A finales del siglo pasado, dos psicólogos sociales pusieron nombre y datos a una intuición que hasta entonces se formulaba de manera vaga. David Dunning y Justin Kruger demostraron que las personas menos competentes en un ámbito no solo rinden peor, sino que además son incapaces de reconocer su propia incompetencia. Y esto no es porque mientan, ni porque sean arrogantes en el sentido clásico, sino porque carecen de las herramientas cognitivas necesarias para evaluarse correctamente.
Saber que uno no sabe requiere un tipo específico de conocimiento llamado metacognición. La metacognición es la capacidad de observar el propio pensamiento desde fuera. Cuando esa capacidad falta, la percepción subjetiva de competencia se desvincula por completo del rendimiento real. El resultado es un fenómeno perverso. Cuanto menos se sabe, más seguro se está uno de sí mismo.
Este efecto no es ni anecdótico ni marginal. Se ha replicado en múltiples contextos, entre ellos el razonamiento lógico, la comprensión lectora, las habilidades técnicas o el juicio moral. En todos ellos aparece el mismo patrón. La confianza subjetiva crece mucho más rápido que la competencia real y lo hace precisamente en los tramos más bajos de habilidad.
Esto tiene una consecuencia devastadora para cualquier sistema de toma de decisión. El incompetente no solo decide mal, además decide sin freno interno. No duda, ni contrasta, ni tampoco busca corrección, porque no percibe esa necesidad. Y cuando se le presenta evidencia contraria, no la integra y la descarta porque aceptar el error exigiría una capacidad que precisamente no tiene.
Y el problema es que en estos casos la estupidez no se corrige con buena voluntad, ni con más información. De hecho, la información adicional suele empeorar el problema porque se interpreta de manera sesgada reforzando la seguridad previa.
Este mecanismo explica por qué determinados discursos sobreviven intactos a pesar de estar empíricamente refutados y por qué ciertas decisiones se repiten incluso después del fracaso. También explica por qué el error no genera aprendizaje, sino justificación retrospectiva.
La idea de que basta con educar para resolver estos problemas es ingenua. La educación aumenta el conocimiento, pero no garantiza la metacognición. En muchos casos la incrementa solo parcialmente, generando una ilusión de competencia aún mayor. El individuo aprende lo suficiente como para opinar libremente, pero no lo suficiente como para comprender la complejidad real del asunto.
Aquí es donde entra el siguiente nivel del problema, porque este sesgo no actúa en el vacío y opera dentro de una arquitectura cognitiva común a todos los humanos. Una arquitectura que favorece la rapidez sobre la precisión y la coherencia narrativa sobre la verdad. Y esto no es una opinión, sino uno de los hallazgos más sólidos de la psicología contemporánea.
Daniel Kahneman dedicó décadas a demostrar que nuestra mente funciona con atajos, con heurísticas y simplificaciones, con mecanismos automáticos que permiten decidir rápido, pero no necesariamente bien. La mayoría del tiempo estos atajos son útiles y nos permiten sobrevivir en un mundo complejo sin colapsar cognitivamente. El problema surge cuando confundimos fluidez con corrección y seguridad con acierto.
Uno de los sesgos más relevantes para entender la estupidez moderna es la ilusión de validez. Esto es que tendemos a confiar excesivamente en juicios que nos resultan coherentes incluso cuando se basan en información incompleta o irrelevante. Si la historia encaja, la mente se relaja y no busca más. Así, la sensación subjetiva de comprensión sustituye a la comprensión real.
Otro sesgo crucial es el exceso de confianza. Las personas sistemáticamente sobreestiman su capacidad para predecir resultados complejos. Creen entender sistemas que en realidad apenas vislumbran y lo hacen con una convicción que no guarda relación alguna con la precisión de sus predicciones.
Kahneman mostró algo especialmente incómodo para el discurso meritocrático contemporáneo. La confianza no es un buen indicador de competencia y, a menudo, es justo lo contrario. Los más seguros suelen ser los que menos razones tienen para estarlo, pero los sistemas sociales no funcionan con métricas invisibles como la precisión objetiva, sino que funcionan con señales visibles de seguridad, rapidez decisoria y ausencia de duda.
Así se crea una selección perversa. Los que dudan parecen débiles, mientras que los que matizan parecen inseguros. Los que reconocen los límites parecen incompetentes, mientras tanto los que simplifican, afirman y actúan sin titubeos ascienden. Y no porque sepan más, no, sino porque encajan mejor en la lógica superficial de evaluación.
Por supuesto, este mecanismo no convierte a todos en estúpidos, pero sí crea un entorno en el que la estupidez prospera y se perpetúa. Un entorno donde el freno cognitivo es penalizado y el acelerador recompensado y donde pensar despacio es un lujo y actuar rápido una virtud.
Cuando pensar en grupo empeora las cosas
Existe otra creencia tranquilizadora que rara vez se cuestiona, l de que muchas cabezas piensan mejor que una. Se cree que el consenso filtra errores y la deliberación colectiva corrige los sesgos individuales. De nuevo, la evidencia va en otra dirección.
Cuando los individuos se agrupan, no suman inteligencia de forma automática. En realidad, en determinados contextos la diluyen. Esto no sucede porque las personas se vuelvan más tontas de repente, sino porque cambian las reglas cognitivas bajo las que operan y aparece una lógica distinta, menos analítica, más emocional, más reactiva y más simplificada.
Este fenómeno fue descrito con crudeza a finales del siglo XIX por Gustave Le Bon. La tesis de Le Bon era incómoda y, hoy día, sigue siéndolo. Según él, el individuo en masa no actúa como un individuo multiplicado, sino como un individuo reducido. Entonces, la complejidad desaparece, el matiz estorba, la emoción contagia y la responsabilidad se diluye.
Le Bon no hablaba de estupidez en términos morales, sino de regresión cognitiva. Tal como afirmaba, en grupo las personas piensan de forma más simple, más binaria y más segura. Y no porque tengan más razones, sino porque el entorno refuerza la certeza compartida. La duda aislada se percibe como amenaza, el desacuerdo como traición y la corrección como debilidad.
Este mecanismo no ha desaparecido ahora, sino que se ha amplificado.
Las redes sociales no han creado la psicología de masas, pero la han optimizado. Han eliminado los frenos temporales, recompensando la reacción inmediata y convirtiendo la opinión en identidad. Y han hecho visible algo que antes quedaba oculto, que la estupidez colectiva ya no necesita plazas llenas, ni mítines, sino que puede organizarse en tiempo real desde el sofá de casa.
El contagio emocional se acelera. Las narrativas simples se imponen. Los mensajes que mejor viajan no son los más precisos, sino los más seguros, los más indignados y los que ofrecen una explicación clara, aunque sea falsa. Porque la claridad tranquiliza y la complejidad inquieta.
Aquí ocurre algo especialmente peligroso. La estupidez deja de percibirse como tal, se normaliza, se legitima y se convierte en sentido común. Cuando suficientes personas repiten una idea con convicción, la idea adquiere una apariencia de verdad, no porque lo sea, sino porque el cerebro humano interpreta la repetición como señal de fiabilidad.
Este efecto no distingue ideologías, ni niveles educativos. Atraviesa todo el espectro social. Las personas brillantes, en contextos individuales, pueden defender auténticas barbaridades cuando lo hacen en grupo. Y no lo hacen porque hayan perdido su inteligencia, sino porque han delegado el pensamiento. Y esta delegación es la clave. Pensar cansa, dudar incomoda y revisar creencias amenaza la identidad. En cambio, adherirse a una narrativa compartida ofrece alivio psicológico, pertenencia, coherencia y ofrece una dirección.
La estupidez colectiva no necesita maldad, ni conspiración, solo necesita pereza cognitiva distribuida. Cada individuo cede un poco de pensamiento crítico confiando en que el grupo lo hará por él y el resultado final es que nadie piensa del todo.
Este fenómeno explica por qué ciertas decisiones públicas persisten incluso cuando acumulan fracasos visibles, por qué se repiten políticas ineficaces y por qué se amplifican soluciones simplistas a problemas complejos. Porque cuestionarlas no es solo un acto intelectual, sino un acto socialmente costoso.
Aquí es donde la estupidez empieza a escalar.
Ya no depende solo de individuos incompetentes sino de dinámicas que arrastran incluso a los competentes y, cuando estas dinámicas penetran en estructuras de poder el daño, deja de ser simbólico.
Liderar sin pensar
El siguiente paso en esta cadena es la institucionalización de la estupidez y su conversión en procedimiento, en protocolo, en normalidad administrativa. Para entender esa transición nadie lo explicó con más lucidez que Hannah Arendt.
Hay una tentación cómoda a la hora de analizar el poder, la de atribuir sus peores efectos a la maldad la corrupción o la ambición desmedida. Esta es una explicación tranquilizadora porque coloca el problema fuera de nosotros. Ellos son los malos y nosotros solo víctimas.
Pero esa explicación se queda corta y, sobre todo, se queda obsoleta.
La aportación más perturbadora de Hannah Arendt no fue describir un monstruo, sino, más bien lo contrario, mostrar que el daño más profundo puede surgir de la normalidad, de la obediencia, de la ejecución eficiente de tareas sin reflexión y/o de la renuncia a pensar.
El problema no es el odio, ni la crueldad explícita, sino la incapacidad de detenerse a examinar lo que se está haciendo. La sustitución del juicio por el procedimiento y de la responsabilidad por el rol. Este mecanismo se ha convertido en una constante del liderazgo contemporáneo en política, en empresa, en tecnología, en academia, en medios y hasta en el ecosistema de startups. No porque sus protagonistas sean peores personas que antes, sino porque operan dentro de estructuras que premian la ejecución y penalizan la reflexión.
El líder actual no es quien piensa mejor, en realidad es quien decide más rápido. No es quien entiende más profundamente, sino quien comunica con mayor seguridad. No es quien reconoce límites, sino quien proyecta certeza. Y en ese contexto la duda no es una virtud, es un lastre.
Así, se genera una paradoja peligrosa. A medida que los sistemas que gestionamos se vuelven más complejos, las personas que los dirigen se ven empujadas a simplificar más, y no porque quieran, sino porque el entorno lo exige. No hay tiempo para entenderlo todo, ni hay espacio para el matiz. Tampoco hay recompensa para la prudencia. Este tipo de liderazgo no necesita idiotas clásicos, le basta con perfiles funcionales, con personas capaces, bien formadas e inteligentes en dominios concretos, pero incapaces de reconocer cuándo han salido de su ámbito de competencia. Son incapaces de decir no lo sé. Y son incapaces de frenar.
Aquí entra una de las evidencias más incómodas para la cultura contemporánea del experto. Y aquí, Philip Tetlock demostró, empíricamente, algo que debería haber cambiado muchas cosas y no cambió casi nada. Los expertos más visibles, más seguros y mediáticos son sistemáticamente peores predictores que otros mucho más discretos y dubitativos.
Durante décadas, Tetlock analizó miles de predicciones en ámbitos políticos, económicos y sociales. El resultado fue consistente. Tetlock observó que cuanta más seguridad ideológica hay, más error se comete. Cuanto más discurso cerrado peor, capacidad predictiva. Y sin embargo esos expertos seguían ocupando espacios de poder y visibilidad.
La razón es simple y devastadora. Los sistemas de selección no buscan precisión, buscan confianza. No buscan verdad, buscan coherencia narrativa. Y tampoco buscan prudencia, buscan liderazgo aparente.
Este sesgo no se limita a la política, también se replica en la dirección empresarial, donde se confunde decisión con valentía y duda con debilidad. Está presente también el sector tecnológico, donde se celebra la disrupción sin comprender del todo sus efectos. Y está en la academia, donde la visibilidad importa más que la cautela. Como no, esta también en los medios, donde la seguridad vende mejor que la incertidumbre.
El resultado es un ecosistema de liderazgo donde la estupidez no se manifiesta como torpeza evidente, sino como una forma elegante de irresponsabilidad, de decisiones bien presentadas, de razonamientos aparentemente sólidos y de consecuencias que nadie quiso prever.
Y aquí ocurre algo crucial. El daño ya no es atribuible a una persona concreta. Se diluye en la estructura, en el comité, en el consejo, en el algoritmo, en el proceso. Nadie se siente responsable del todo, aunque todos hicieron su parte.
Este es el punto exacto en el que la estupidez se vuelve verdaderamente peligrosa, cuando deja de ser un fallo individual y se convierte en una propiedad emergente del sistema. Es cuando nadie actúa con mala intención, pero el resultado es objetivamente dañino. Y es también el punto en el que la tecnología entra en escena con un papel decisivo, no como causa original, sino como amplificador perfecto. Porque los sistemas tecnológicos actuales no corrigen la estupidez, la escalan.
La tecnología como espejo y amplificador
Cada época proyecta sus miedos sobre sus herramientas. Hubo un tiempo en que se temió a la imprenta, al ferrocarril y a la electricidad. Hoy ese lugar lo ocupa la inteligencia artificial. Y, sin embargo, el problema vuelve a ser el mismo. No es la herramienta, es quién decide cómo se usa y desde qué comprensión.
La tecnología no introduce estupidez en el sistema, sólo se la encuentra. Y cuando la encuentra, la multiplica.
La inteligencia artificial (IA) no piensa, no comprende y, por supuesto, no decide moralmente. La IA optimiza funciones que otros han definido, ejecuta procesos que otros han autorizado y aprende de datos generados por humanos con todos sus sesgos, limitaciones y errores. Esperar que actúe como freno ético o cognitivo es una fantasía cómoda. Delegar en ella decisiones complejas es una forma sofisticada de irresponsabilidad. Es realmente de estúpidos
Y, así, aparece uno de los grandes autoengaños contemporáneos, el de la idea de que automatizar es neutral. La falacia de que si una decisión la toma un sistema técnico deja de ser humana. La simplicidad de pensar que el error se diluye en el algoritmo. Nada más lejos de la realidad. La automatización no elimina la decisión original, sino que la fija, la escala y la hace repetible y opaca.
Cuando una persona toma una mala decisión, el daño suele ser limitado, pero cuando un sistema automatizado la ejecuta miles o millones de veces el error se convierte en estructura y corregirlo ya no es una cuestión de voluntad, sino de arquitectura.
Este es el punto donde la estupidez humana entra en contacto con el riesgo existencial porque los sistemas tecnológicos actuales no operan en entornos simples, sin que operan en redes financieras, energéticas, sanitarias, informativas y militares altamente interconectadas. Pequeñas decisiones locales pueden generar efectos globales imprevisibles.
Aquí el pensamiento de Nassim Nicholas Taleb resulta incómodo, pero imprescindible. Taleb ha insistido durante años en que el mayor peligro no proviene de lo que sabemos que no sabemos, sino de lo que creemos controlar sin entenderlo. Los sistemas complejos no fallan de manera gradual, más bien colapsan y, cuando lo hacen, lo hacen de forma desproporcionada.
El problema no es que existan errores, es que se diseñen sistemas frágiles gestionados por personas excesivamente seguras de sí mismas. Sistemas donde el fallo no es local, sino sistémico y donde no hay amortiguadores y la corrección llega demasiado tarde.
La estupidez aquí adopta una forma especialmente peligrosa, la de la ilusión de control. Esto es la creencia de que porque un sistema funciona la mayor parte del tiempo se comprende su funcionamiento. Es la confianza en modelos que solo capturan una parte mínima de la realidad. Es la fe en métricas que simplifican lo que no debería simplificarse.
Este patrón ha sido estudiado con detalle por Dietrich Dörner. Sus experimentos mostraron cómo personas inteligentes bien intencionadas y motivadas fracasan sistemáticamente al gestionar sistemas complejos y no por mala fe, sino por miopía, por ignorar retroalimentaciones, por intervenir demasiado rápido y por corregir síntomas sin entender las causas.
Cuanto más complejo es el sistema, más tentador resulta simplificarlo, cuanto más inciertas son las consecuencias, más fuerte es el impulso de actuar y cuanto mayor es el poder de intervención, más grave es el daño potencial.
La IA introduce elementos nuevos en esta ecuación, como la velocidad, la escala y la autonomía operativa. Y también decisiones que ya no pasan por la reflexión humana directa. Los sistemas aprenden dinámicamente y generan resultados que ni sus propios diseñadores pueden explicar del todo. Esto no convierte a la IA en enemiga, la convierte en un amplificador brutal de nuestras virtudes y defectos. En manos prudentes puede ser una herramienta poderosa, pero en manos estúpidas, se convierte en un multiplicador de daño.
El verdadero riesgo no es una superinteligencia hostil, es una inteligencia artificial mediocre integrada en estructuras humanas mediocres, gobernadas por personas incapaces de reconocer sus límites. Se convierte en una IA al servicio de decisiones mal planteadas, ejecutadas con convicción y sin freno.
Aquí la estupidez deja de ser un problema social para convertirse en un problema de especie, porque, por primera vez en la historia, pequeñas dosis de incompetencia no reconocida pueden desencadenar consecuencias irreversibles a escala global. Y lo más inquietante es que nadie necesita querer el desastre, basta con que nadie se detenga a pensar.
Conclusiones y opinión del autor
Después de recorrer la psicología, la sociología, el liderazgo y la tecnología el diagnóstico es incómodo pero coherente: la estupidez humana contemporánea no es un accidente. ni una desviación puntual es un patrón estable que emerge cuando se combinan tres elementos, la incompetencia no reconocida, la confianza excesiva y la acción dentro de sistemas complejos.
Nada de esto es nuevo por separado, lo nuevo es su sincronización. Nunca antes tantos individuos con una comprensión parcial del mundo habían tenido capacidad real de afectar a sistemas globales. Nunca antes la seguridad subjetiva había sido tan premiada socialmente. Nunca antes la velocidad había desplazado de forma tan radical al juicio.
La estupidez actual no se manifiesta como burda ignorancia, sino como una forma sofisticada de torpeza funcional. Se manifiesta con personas bien formadas tomando decisiones mal planteadas y con una convicción que no se corresponde con su comprensión real del problema. Se manifiesta con instituciones diseñadas para ejecutar, no para pensar. Y con tecnologías capaces de amplificar errores humanos a una escala sin precedentes.
Este análisis permite concluir algo esencial, que el problema no reside en individuos aislados, sino en estructuras que seleccionan y refuerzan comportamientos estúpidos, en sistemas que confunden liderazgo con seguridad, competencia con fluidez verbal, progreso con aceleración y responsabilidad con procedimiento.
La estupidez no es un problema generacional, ideológico. O de falta de información, es un problema de diseño cognitivo social y tecnológico. La estupidez no domina porque haya más idiotas, domina porque los sistemas actuales funcionan mejor cuando nadie duda demasiado.
Y ese es el punto más peligroso de todos.
Mi opinión es clara y no pretende ser tranquilizadora: no estamos ante una crisis de inteligencia, sino ante una crisis de responsabilidad. Hemos construido una cultura que penaliza el pensamiento lento, ridiculiza la duda y glorifica la acción rápida, incluso cuando no se entiende del todo lo que se está haciendo. Hemos convertido la seguridad en una virtud moral y eso si es profundamente estúpido.
La inteligencia artificial, la automatización y la complejidad tecnológica no van a corregir este problema, sino que lo van a exponer y lo van a amplificar. Si lo que somos es una civilización que decide rápido, opina sin freno y delega el juicio cuando incomoda el resultado, lo que vendrá no será un colapso espectacular, sino algo peor, un deterioro progresivo de la calidad de nuestras decisiones.
No creo que exista una solución definitiva, pero sí creo que existe una elección constante. O seguimos premiando la confianza vacía y la velocidad irresponsable, o empezamos a valorar la duda la prudencia y la capacidad de frenar.
No se trata de volver atrás, ni de rechazar la tecnología, ni de idealizar una élite pensante, se trata de algo mucho más básico y mucho más difícil, el volver a vincular decisión y consecuencia y volver a asumir que no entender algo del todo no es una vergüenza, sino una señal de lucidez.
Si algo merece ser defendido hoy no es una ideología, ni una tecnología, ni una promesa de progreso, es la humildad, la capacidad de decir no lo sé todavía y la de detenerse cuando el daño potencial es alto. Debemos diseñar sistemas como si fuéramos falibles, porque lo somos.
Cuando los idiotas dominen el mundo no será porque nadie lo vio venir, será porque verlo exigía pensar más despacio de lo que estábamos dispuestos a aceptar.
Referencias
- Cipolla, C. M. (2011). The basic laws of human stupidity. New York, NY. Doubleday.
- Colado García, S. (2019). Influencia de la tecnología en el desarrollo del pensamiento y conducta humana Tesis doctoral. Independently published.
- Dunning, D., & Kruger, J. (1999). Unskilled and unaware of it. How difficulties in recognizing one’s own incompetence lead to inflated self-assessments. Journal of Personality and Social Psychology, 77(6), 1121–1134.
- Kahneman, D. (2011). Thinking, fast and slow. New York, NY. Farrar, Straus and Giroux.
- Le Bon, G. (1895). Psychologie des foules. Paris, France. Félix Alcan.
- Arendt, H. (1963). Eichmann in Jerusalem. A report on the banality of evil. New York, NY. Viking Press.
- Tetlock, P. E. (2005). Expert political judgment. How good is it? How can we know? Princeton, NJ. Princeton University Press.
- Taleb, N. N. (2007). The black swan. The impact of the highly improbable. New York, NY. Random House.
- Taleb, N. N. (2012). Antifragile. Things that gain from disorder. New York, NY. Random House.
- Dörner, D. (1996). The logic of failure. Recognizing and avoiding error in complex situations. New York, NY. Metropolitan Books.
- Merton, R. K. (1936). The unanticipated consequences of purposive social action. American Sociological Review, 1(6), 894–904.
- Merton, R. K. (1968). Social theory and social structure. New York, NY. Free Press.