Tecnología

La IA podría hacer que las personas se conecten más con bots que con humanos, preocupa OpenAI

La socialización con IA también puede hacer que los usuarios sean menos aptos para tener relaciones con humanos (representacional).

San Francisco, Estados Unidos:

OpenAI dice que le preocupa que una función de voz realista para su inteligencia artificial pueda hacer que las personas interactúen con el bot a expensas de las interacciones humanas.

La compañía con sede en San Francisco citó literatura que, según dijo, indica que hablar con una IA como si fuera una persona podría generar una confianza fuera de lugar y que la alta calidad de voz de GPT-4o podría exacerbar este efecto.

«La antropomorfización implica asignar comportamientos y características similares a los humanos a entidades no humanas, como modelos de IA», dijo OpenAI el jueves en un informe sobre el trabajo de seguridad que está realizando en una versión ChatGPT-4o de su IA.

«Este riesgo puede verse incrementado por las capacidades de audio de GPT-4o, que facilitan más interacciones humanas con el modelo».

OpenAI dijo que notó que los evaluadores hablaban con la IA de maneras que sugerían vínculos compartidos, como lamentarse en voz alta de que era su último día juntos.

Dijo que estos casos parecen benignos pero deberían estudiarse para ver cómo podrían evolucionar durante períodos de tiempo más largos.

Socializar con IA también podría hacer que los usuarios sean menos hábiles o inclinados en lo que respecta a las relaciones con los humanos, especuló OpenAI.

«La interacción prolongada con el modelo puede influir en las normas sociales», señala el informe.

READ  Portacapture X8 de Tascam es una grabadora de mano resistente con una interfaz similar a la de un teléfono inteligente

«Por ejemplo, nuestros modelos son deferentes y permiten a los usuarios interrumpir y 'levantar el micrófono' en cualquier momento, lo que, si bien se espera de una IA, sería antinormativo en las interacciones humanas».

Según OpenAI, la capacidad de la IA para recordar detalles durante las conversaciones y realizar tareas también puede hacer que las personas dependan demasiado de la tecnología.

«Las recientes preocupaciones compartidas por OpenAI sobre la posible dependencia del modo de voz de ChatGPT indican lo que muchos ya han comenzado a preguntarse: ¿es hora de detenerse y considerar cómo esta tecnología afecta la interacción y las relaciones humanas?», dijo Alon Yamin, cofundador y CEO. de la plataforma de detección antiplagio de IA Copyleaks.

Dijo que la IA nunca debería reemplazar la interacción humana real.

OpenAI dijo que probará más a fondo cómo las funciones de voz en su IA pueden hacer que las personas se apeguen emocionalmente.

Los equipos que probaron las capacidades de voz de ChatGPT-4o también lograron que repitiera información falsa y produjera teorías de conspiración, lo que generó preocupaciones de que se pudiera decirle al modelo de IA que lo hiciera de manera convincente.

OpenAI se vio obligada a disculparse con la actriz Scarlett Johansson en junio por usar algo muy similar a su voz en su último chatbot, destacando la tecnología de clonación de voz.

Aunque OpenAI negó que la voz utilizada fuera la de Johansson, su CEO Sam Altman no ayudó en su caso, quien marcó el nuevo modelo con un mensaje de una sola palabra en las redes sociales: «Ella».

Johansson prestó su voz a un personaje de IA en la película «Her», que, según Altman, es su película de tecnología favorita.

READ  TP-Link amplía la colección HomeKit con nuevos enchufes e interruptores inteligentes

La película de 2013 está protagonizada por Joaquin Phoenix como un hombre que se enamora de una asistente de inteligencia artificial llamada Samantha.

(A excepción del titular, esta historia no ha sido editada por el personal de NDTV y se publica desde un canal sindicado).

Federico Pareja

"Escritora típica. Practicante de comida malvada. Genio zombi. Introvertido. Lector. Erudito de Internet. Entusiasta del café incondicional".

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba