Introducción
La detección de mentiras ha sido un campo de estudio significativo en psicología y criminología, con el objetivo de identificar métodos efectivos para discernir la verdad del engaño.
Tradicionalmente, se han utilizado técnicas como el polígrafo, la observación del comportamiento y las entrevistas cognitivas para intentar detectar mentiras. Sin embargo, estas técnicas presentan limitaciones importantes en cuanto a su precisión y fiabilidad.
Con los avances en la inteligencia artificial (IA), han surgido nuevas herramientas que prometen mejorar la precisión y eficacia en la detección de mentiras. La IA puede analizar patrones complejos en datos textuales y de comportamiento que son difíciles de detectar para los humanos.
Algoritmos avanzados de aprendizaje automático pueden identificar señales sutiles de engaño en el lenguaje, las expresiones faciales y los patrones de voz con una precisión superior a la humana.
En los últimos años se ha analizado el cómo la integración de la IA puede influir en las normas sociales y el comportamiento humano, planteando nuevas preguntas sobre la confianza y la acusación en nuestra sociedad.
La psicología de la mentira
La mentira es un comportamiento humano complejo y multifacético que puede tener diversas motivaciones, desde la protección personal hasta la manipulación de otros.
Paul Ekman, uno de los pioneros en el estudio de la mentira, identificó varios indicadores no verbales que pueden delatar a un mentiroso, como microexpresiones faciales y cambios en la postura corporal1.
Las personas tienden a creer que los demás dicen la verdad a menos que haya una razón clara para sospechar lo contrario. Esta tendencia a confiar en la veracidad de los demás es fundamental para la cohesión social, pero también nos hace vulnerables al engaño2.
Investigaciones clásicas han mostrado que los humanos son inherentemente malos para detectar mentiras, con una precisión apenas superior al azar. Un estudio de Bond y DePaulo (2006) reveló que, en promedio, las personas pueden detectar mentiras con una precisión del 54%, lo que apenas supera el 50% esperado por azar3.
Esta incapacidad para detectar mentiras se ve exacerbada por las normas sociales que desalientan las acusaciones abiertas de falsedad debido al riesgo de conflictos interpersonales y a las consecuencias negativas de hacer acusaciones incorrectas4.
Esto subraya la dificultad de identificar el engaño sin el apoyo de herramientas adicionales.
La detección de la mentira
Los métodos tradicionales de detección de mentiras incluyen el uso de herramientas como el polígrafo, la observación del comportamiento y el análisis de entrevistas cognicitvas.
El polígrafo mide las respuestas fisiológicas (como la frecuencia cardíaca, la presión arterial y la conductancia de la piel) para detectar mentiras. Sin embargo, su validez y fiabilidad han sido cuestionadas9.
Mediante la observación de comportamientos se analiza el lenguaje corporal, las microexpresiones faciales y los patrones de habla. Aunque algunos expertos han identificado ciertas señales universales de engaño, la precisión sigue siendo limitada11.
Las entrevistas cognitivas utilizan técnicas de interrogatorio estructurado para detectar incoherencias en las declaraciones. Aunque pueden ser efectivas, requieren mucha experiencia y entrenamiento12. Las razones de esta baja precisión incluyen sesgos cognitivos, la teoría de la verdad por defecto y la falta de señales no verbales consistentes que delaten la mentira.
La teoría de la verdad por defecto sugiere que los humanos tienden a asumir que las declaraciones de los demás son verdaderas a menos que haya evidencia clara de lo contrario. Esta predisposición a la credulidad facilita la cooperación social, pero también nos hace vulnerables al engaño2. Esta tendencia a confiar en los demás se fundamenta en la necesidad de mantener relaciones sociales fluidas y evitar el conflicto constante5.
Los indicadores de veracidad del mensaje son señales o características en la comunicación de una persona que pueden sugerir si una declaración es verdadera o falsa.
Los indicadores de veracidad se dividen en tres categorías principales: verbales, no verbales y psicofisiológicos.
Los indicadores verbales incluyen inconsistencias en la historia, detalles superfluos o vagos, y el uso de evasivas. Los estudios de Vrij4 y 6 han demostrado que los mentirosos tienden a proporcionar menos detalles específicos y más declaraciones generales.
Entre los indicadores no verbales se incluyen los movimientos corporales, expresiones faciales y microexpresiones, Esto indicadores pueden delatar a un mentiroso. Paul Ekman identificó microexpresiones que son difíciles de suprimir y pueden revelar emociones ocultas8. Ekman también encontró que las expresiones faciales involuntarias pueden ser indicativos confiables de la mentira debido a su naturaleza espontánea y difícil de controlar1.
Los indicadores psicofisiológicos incluyen la actividad cerebral medida por técnicas como los potenciales relacionados con eventos (ERP) y la actividad del sistema nervioso autónomo, como el ritmo cardíaco y la conductancia de la piel4. La poligrafía, aunque controversial, es un método que intenta detectar cambios fisiológicos asociados con el estrés de mentir9.
La detección de mentiras ha sido estudiada desde perspectivas emocionales y cognitivas. Las emociones pueden filtrarse involuntariamente cuando una persona miente, manifestándose en microexpresiones o cambios en el tono de voz.
La hipótesis del filtraje de Ekman y Friesen8 postula que las emociones relacionadas con la mentira, como la culpa o el miedo, pueden manifestarse brevemente antes de ser suprimidas.
Por otro lado, los enfoques cognitivos sugieren que mentir requiere mayor carga cognitiva, lo que puede traducirse en pausas más largas o errores en el discurso10.
La IA para la detección de mentiras
La IA ha demostrado un potencial significativo en la detección de mentiras, superando la capacidad humana en varias pruebas. La IA promete superar algunas de las limitaciones humanas en la detección de mentiras mediante el análisis de patrones complejos en datos textuales y de comportamiento.
Un estudio dirigido por Nils Köbis y publicado en la revista iScience demostró que un algoritmo de IA puede identificar correctamente declaraciones verdaderas y falsas el 66% de las veces, una precisión significativamente mayor que la humana13.
El equipo de Köbis reclutó a 986 personas para escribir descripciones verdaderas y falsas de sus planes para el fin de semana. Usando estos datos, entrenaron un algoritmo de aprendizaje supervisado para detectar mentiras. Luego, 2.000 participantes juzgaron la veracidad de estas declaraciones, divididos en cuatro grupos con diferentes niveles de acceso a las predicciones de la IA13.
Uno de los hallazgos más preocupantes del estudio es la disposición de las personas a confiar en la IA para hacer acusaciones de mentira, a pesar de la reticencia general a utilizar estas herramientas, es decir, los participantes eran significativamente más propensos a acusar a otros de mentir cuando recibían una predicción de IA que cuando confiaban solo en su juicio.
Esto plantea preocupaciones sobre la confianza excesiva en los sistemas de IA y la posibilidad de que estos sistemas refuercen sesgos preexistentes14.
El estudio de Köbis sugiere que la IA puede alterar las normas sociales establecidas sobre la acusación de mentiras.
Tradicionalmente, acusar a alguien de mentir requiere coraje y evidencia, debido a los costos sociales asociados con las acusaciones falsas15. Sin embargo, la disponibilidad de predicciones de IA podría servir como una excusa conveniente para que las personas acusen sin asumir responsabilidad, cambiando potencialmente la dinámica social del comportamiento de acusación13.
Otros estudios han explorado la detección de mentiras con IA, confirmando y ampliando los hallazgos de Köbis.
Por ejemplo, un estudio de 2020 demostró que los algoritmos de IA pueden mejorar la detección de mentiras mediante el análisis de microexpresiones faciales, logrando una precisión del 70%17.
Las microexpresiones faciales, breves e involuntarias, son difíciles de detectar a simple vista, pero pueden ser captadas por algoritmos de IA entrenados en grandes conjuntos de datos.
El análisis de texto basado en machine learning puede identificar patrones lingüísticos que indican engaño.
Un estudio de Pérez-Rosas se entrenó un modelo de IA para detectar mentiras en textos escritos, logrando una precisión del 68%18. Este enfoque es particularmente útil en la detección de noticias falsas y en la evaluación de comunicaciones escritas en entornos judiciales.
Implicaciones del uso de IA en la detección de mentiras
La adopción de la IA en la detección de mentiras tiene varias implicaciones prácticas.
La IA puede complementar las técnicas tradicionales de interrogatorio y análisis de pruebas en investigaciones criminales7.
Las herramientas de IA pueden ser utilizadas para evaluar la veracidad de las declaraciones en solicitudes de asilo y otros procesos migratorios13.
Las empresas pueden utilizar IA para identificar comportamientos fraudulentos en transacciones financieras y seguros19.
Desde una perspectiva teórica, la integración de la IA en la detección de mentiras ofrece nuevas oportunidades para explorar la psicología del engaño.
La IA puede ayudar a identificar y mitigar sesgos cognitivos que afectan la capacidad humana para detectar mentiras20.
Los datos recopilados por sistemas de IA pueden ser utilizados para desarrollar modelos más precisos del comportamiento engañoso3.
Es importante pensar en que la disponibilidad de tecnologías de detección de mentiras basadas en IA puede influir en cómo las normas sociales y éticas evolucionan en relación con la confianza y la acusación13.
Conclusiones
La integración de la IA en la detección de mentiras ofrece ventajas significativas, como una mayor precisión en comparación con los humanos. Sin embargo, también plantea desafíos éticos y sociales que deben abordarse.
La IA puede cometer errores y reforzar sesgos existentes, lo que podría tener consecuencias graves en contextos sensibles como la justicia penal y la seguridad nacional. Por ejemplo, un algoritmo de detección de mentiras puede estar sesgado si se entrena con datos que reflejan prejuicios humanos, lo que puede resultar en acusaciones injustas.
Es esencial que los responsables políticos y los desarrolladores de tecnología consideren que los sistemas de IA deben ser transparentes en su funcionamiento y estar sujetos a mecanismos de rendición de cuentas para mitigar el riesgo de errores y sesgos16.
Así mismo, es crucial educar al público sobre las limitaciones y riesgos de la IA en la detección de mentiras, fomentando una actitud crítica y consciente hacia su uso13.
Los responsables políticos deben desarrollar normas y regulaciones que guíen el uso de la IA en contextos sensibles, garantizando que se utilice de manera ética y responsable16.
Es crucial que los estudios futuros aborden posibles conflictos de interés y sesgos, tanto en el diseño de los algoritmos como en su implementación práctica16.
La implementación de IA en la detección de mentiras también plantea cuestiones éticas significativas.
¿Es justo utilizar una tecnología que no es 100% precisa para tomar decisiones que pueden afectar la vida de las personas? ¿Cómo se puede garantizar que los algoritmos sean transparentes y responsables?
Estos son algunos de los dilemas que los responsables políticos y los desarrolladores de tecnología deben abordar.
Referencias
1. Ekman, P. (2001). Telling Lies: Clues to Deceit in the Marketplace, Politics, and Marriage. Norton & Company.
2, Levine, T. R. (2014). Truth-Default Theory (TDT): A Theory of Human Deception and Deception Detection. Journal of Language and Social Psychology, 33(4), 378-392. https://doi.org/10.1177/0261927X14535916
3. Bond, C. F., & DePaulo, B. M. (2006). Accuracy of deception judgments. Personality and Social Psychology Review, 10(3), 214-234.
4. Vrij, A. (2008). Detecting Lies and Deceit: Pitfalls and Opportunities. John Wiley & Sons.
5, Levine, T. R., Cohen, J. L., & Balasubramanian, S. (2016). Trust Development in Initially Untrustworthy Relationships: Deception and Truth Bias in the Evolution of Trust. Communication Research, 43(8), 1118-1142. doi: 10.1177/0093650216644016.
6. Vrij, A. (2000). Detecting Lies and Deceit: The Psychology of Lying and the Implications for Professional Practice. John Wiley & Sons.
7. Vrij, A., & Granhag, P. A. (2012). Eliciting cues to deception and truth: What matters are the questions asked. Journal of Applied Research in Memory and Cognition, 1(2), 110-117. https://doi.org/10.1016/j.jarmac.2012.02.004
8. Ekman, P., & Friesen, W. V. (1969). Nonverbal leakage and clues to deception. Psychiatry, 32(1), 88-106.
9. National Research Council. (2003). The Polygraph and Lie Detection. The National Academies Press.
10. Zuckerman, M., DePaulo, B. M., & Rosenthal, R. (1981). Verbal and Nonverbal Communication of Deception. Advances in Experimental Social Psychology, 14, 1-59.
11. Ekman, P. (2001). Unmasking the Face: A Guide to Recognizing Emotions from Facial Expressions. Malor Books.
12. Fisher, R. P., & Geiselman, R. E. (1992). Memory-Enhancing Techniques for Investigative Interviewing: The Cognitive Interview. Charles C Thomas Pub Ltd
13. Köbis, N., et al. (2024). Los algoritmos de detección de mentiras interrumpen la dinámica social del comportamiento de acusación. iScience. https://doi.org/10.1016/j.isci.2024.06.027
14. O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.
15. Feldman, R. S. (2009). The Liar in Your Life: The Way to Truthful Relationships. Twelve.
16. Binns, R. (2018). Fairness in Machine Learning: Lessons from Political Philosophy. Proceedings of the 2018 Conference on Fairness, Accountability, and Transparency, 149-159. https://doi.org/10.1145/3287560.3287598
17. Zhang, Z., et al. (2020). Automatic Micro-Expression Recognition in Long Video Sequences. IEEE Transactions on Affective Computing, 11(3), 430-444. https://doi.org/10.1109/TAFFC.2018.2825431
18. Pérez-Rosas, V., et al. (2021). Automatic Deception Detection: Methods for Finding Fake News. Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, 420-429. https://doi.org/10.18653/v1/2021.emnlp-main.31
19. Bolton, R. J., & Hand, D. J. (2002). Statistical fraud detection: A review. Statistical Science, 17(3), 235-249. https://doi.org/10.1214/ss/1042727940
20. Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
21. Bond, C. F., & DePaulo, B. M. (2006). Accuracy of deception judgments. Personality and Social Psychology Review, 10(3), 214-234. https://doi.org/10.1207/s15327957pspr1003_2