La mayoría de los usuarios de ChatGPT creen que los modelos de IA tienen «experiencias conscientes», según un estudio
Según un estudio reciente, la mayoría de la gente cree que los modelos de lenguaje grandes (LLM) como ChatGPT tienen experiencias conscientes, al igual que los humanos.
Expertos en tecnología y ciencia. rechazar abrumadoramente la idea de que los más poderosos de hoy inteligencia artificial Los modelos (IA) son conscientes o autoconscientes de la misma manera que los humanos y otros animales. Pero a medida que los modelos de IA mejoran, se vuelven cada vez más impresionantes y han comenzado a mostrar signos de lo que, para un observador externo casual, podría parecer conciencia.
El recientemente lanzado Modelo Claude 3 Opuspor ejemplo, sorprendió a los investigadores por su aparente autoconciencia y comprensión avanzada. Un ingeniero de Google también fue suspendido en 2022 tras declarar públicamente una El sistema de inteligencia artificial que la empresa estaba construyendo era «sensible».
En el nuevo estudio, publicado el 13 de abril en la revista Neurociencia de la ConcienciaLos investigadores han argumentado que la percepción de la conciencia en la IA es tan importante como si son o no sensibles. Esto es especialmente cierto cuando consideramos el futuro de la IA en términos de su uso, regulación y protección contra efectos negativos, argumentaron.
También sigue un artículo reciente que afirmaba que GPT-4, el LLM que impulsa ChatGPT, pasó la prueba de Turing, que juzga si una IA es indistinguible de un humano según otros humanos que interactúan con ella.
Relacionado: El generador de voz con IA 'alcanza la paridad humana', pero es demasiado peligroso para lanzarlo, dicen los científicos
En el nuevo estudio, los investigadores pidieron a 300 ciudadanos estadounidenses que describieran su frecuencia de uso de IA y también leyeron una breve descripción de ChatGPT.
Luego respondieron preguntas sobre si los estados mentales podrían atribuirse a esto. Más de dos tercios de los participantes (67%) atribuyeron la posibilidad de tener autoconciencia o conciencia fenoménica (la sensación de lo que es ser «tú», versus un facsímil no sensible que simula el autoconocimiento interno), mientras que el 33% atribuyó ninguna experiencia consciente.
También se pidió a los participantes que calificaran las respuestas en una escala del 1 al 100, donde 100 significaría confianza absoluta en que ChatGPT estaba experimentando conciencia y 1 confianza absoluta en que no. Cuanto más frecuentemente las personas usaban herramientas como ChatGPT, más probabilidades había de que les atribuyeran algo de conocimiento.
El hallazgo clave, que la mayoría de la gente cree que los LLM muestran signos de conciencia, demostró que las «intuiciones populares» sobre la conciencia de la IA pueden diferir de las intuiciones de los expertos, dijeron los investigadores en el artículo. Agregaron que la discrepancia podría tener «implicaciones significativas» para el estatus ético, legal y moral de la IA.
Los científicos dijeron que el diseño experimental reveló que los no expertos no entienden el concepto de conciencia fenoménica como lo haría un neurocientífico o un psicólogo. Sin embargo, eso no significa que los resultados no tengan un impacto importante en el futuro del campo.
Según el artículo, las atribuciones psicológicas populares de la conciencia pueden mediar en futuras preocupaciones morales con respecto a la IA, independientemente de si son realmente conscientes o no. Dijeron que el peso de la opinión pública (y las percepciones públicas amplias) en torno a un tema determinado a menudo guía la regulación, además de influir en el desarrollo tecnológico.