Tecnología

Los detectores de mentiras de IA llevan a las personas a hacer más acusaciones falsas, según un estudio

Los participantes con IA detectora de mentiras tenían más probabilidades de confiar en ella y estaban de acuerdo más fácilmente cuando etiquetaba falsamente algo como mentira.

Los investigadores descubrieron que los participantes eran más propensos a acusar a otros de mentir cuando contaban con el apoyo de un asistente de inteligencia artificial para detectar mentiras, lo que sugiere que los defensores de dicha tecnología de detección de mentiras deberían hacer una pausa antes de su implementación más amplia.

«Nuestra sociedad tiene normas fuertes y bien establecidas sobre las acusaciones de mentira», dijo Nils Köbis, líder del estudio en la Universidad de Duisburg-Essen en Alemania, en un presione soltar. Estas normas surgen del hecho de que ser acusado falsamente o hacer acusaciones falsas puede dañar enormemente la posición social de uno.

Como los humanos son terribles para detectar mentiras, el riesgo de hacer una acusación falsa es aún mayor, pero la tecnología ahora está cambiando ese cálculo.

La verificación sistémica de hechos protege al acusado de acusaciones falsas. Si se automatiza y se amplía, el proceso que antes requería mucho tiempo puede estar más disponible. “[However,] El verdadero cambio tecnológico puede ser la detección automática de mentiras, que reduce la responsabilidad del acusador, en lugar de la verificación automática de hechos que reduce el daño al acusado”, advirtieron Köbis y sus colegas en su función.

IA de detección de mentiras

La tecnología de detección de mentiras avanza gracias a algoritmos entrenados para detectar falsedades a través de reacciones físicas, comportamientos e incluso patrones escritos. Por lo tanto, el equipo planteó la siguiente hipótesis: «Si esta tecnología de inteligencia artificial continúa mejorando y está disponible masivamente, podría alterar la forma en que las personas evitan acusarse mutuamente de mentir».

READ  GPT-4 de OpenAI puede explotar de forma autónoma el 87% de las vulnerabilidades de un día

Para probar su suposición, el equipo hizo que 986 participantes escribieran una afirmación verdadera y otra falsa sobre sus próximos planes para el fin de semana. Para desarrollar un algoritmo de detección de mentiras, el equipo utilizó un modelo de lenguaje de código abierto desarrollado por Google. Dividieron los datos en cinco grupos del mismo tamaño y entrenaron repetidamente el algoritmo utilizando el 80% de un subconjunto y lo probaron utilizando el 20% restante.

La precisión del algoritmo se determinó probando su rendimiento general en los cinco conjuntos de datos de prueba. Después del entrenamiento, el algoritmo funcionó significativamente mejor que los humanos e identificó correctamente una afirmación verdadera o falsa el 66% de las veces.

Se reclutó a 2.000 participantes adicionales para juzgar si las afirmaciones eran ciertas o no. Estos voluntarios se dividieron en cuatro grupos: de base, forzados, bloqueados y de elección. Los grupos de referencia no recibieron asistencia y el grupo forzado recibió asistencia de IA independientemente de si la solicitaron o no. Los grupos bloqueados y de elección pudieron solicitar asistencia de IA, pero solo el grupo de elección la recibió.

El grupo de referencia pudo identificar correctamente afirmaciones verdaderas o falsas el 46% de las veces. Sin embargo, a pesar de saber que la mitad de las declaraciones eran mentiras, sólo el 19% de los participantes acusó una declaración como mentira, demostrando una renuencia a hacer una acusación falsa sin la ayuda de la IA de detección de mentiras.

En el grupo forzado, que recibió ayuda obligatoria de IA, la tasa de acusaciones aumentó: más de un tercio de los participantes hicieron acusaciones falsas. En particular, esto fue significativamente mayor que el de los dos grupos que no recibieron asistencia.

READ  Casio lanzará G-SHOCK resistente al polvo y al barro con exterior resistente totalmente metálico

Una tendencia a estar de acuerdo con la IA

En general, los participantes también tendieron a estar de acuerdo con el algoritmo. Sólo el 13% de las personas no estuvo de acuerdo cuando la IA predijo que una afirmación era cierta, pero el 40% estuvo de acuerdo con la IA cuando acusó una afirmación de ser falsa. El resultado fue más espectacular en el grupo base, donde se podía solicitar la asistencia de la IA.

Un asombroso 84% de los participantes siguió el algoritmo y acusó de mentir. «Esto demuestra que una vez que las personas tengan a mano un algoritmo de este tipo, confiarán en él y tal vez cambiarán su comportamiento», afirmó Köbis. «Esto es bastante alarmante y demuestra que debemos tener mucho cuidado con esta tecnología».

Sorprendentemente, la mayoría de los participantes evitaron utilizar la asistencia de la IA cuando se les dio la oportunidad. A pesar de que se les dijo que el algoritmo es mejor que los humanos para detectar declaraciones falsas, sólo un tercio de los participantes en los grupos bloqueados y de elección solicitaron ayuda de la máquina.

Köbis cree que esto puede deberse a una conocida propensión de los humanos a sobreestimar su capacidad para detectar mentiras. «Hemos visto en varios estudios que las personas confían demasiado en sus habilidades para detectar mentiras, a pesar de que los humanos son muy malos en eso», dijo.

El equipo recomienda que los responsables de la formulación de políticas reconsideren el uso de la tecnología de detección de mentiras en cuestiones importantes o muy complicadas, como la evaluación de las solicitudes de asilo en las fronteras. Varios estudios muestran que los algoritmos cometen errores y pueden reforzar sesgos, pero la gente todavía cree que son infalibles.

READ  Las nuevas tecnologías pueden poner a su alcance ordenadores cuánticos más potentes

«Hay mucho revuelo en torno a la IA y mucha gente cree que estos algoritmos son en realidad muy potentes e incluso objetivos», afirmó Köbis. «Me preocupa mucho que esto haga que la gente confíe demasiado en él, incluso cuando no funciona tan bien».

Referencia: Alicia von Schenk, et al. Los algoritmos de detección de mentiras interrumpen la dinámica social del comportamiento de culpariCiencia (2024). DOI: 10.1016/j.isci.2024.110201

Crédito de la imagen destacada: Avance

Federico Pareja

"Escritora típica. Practicante de comida malvada. Genio zombi. Introvertido. Lector. Erudito de Internet. Entusiasta del café incondicional".

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba