Microsoft atenúa el chatbot de IA de Bing y ofrece múltiples personalidades
Después de Bing Chat de Microsoft Corp. se descarriló poco después de su lanzamiento, la compañía ahora se hizo cargo del bot y les dio a los usuarios una selección de personalidades que pueden elegir cuando chatean con él.
Millones de personas se registraron para usar Bing impulsado por ChatGPT de Open AI LLC cuando estuvo disponible por primera vez, pero muchos de los que llevaron el bot al límite encontraron que la IA era propensa a lo que parecían ser ataques de nervios. Era cualquier cosa menos la «diversión y los hechos» que Microsoft había prometido, con el bot a veces transmitiendo desesperación existencial y a veces insultando a la gente.
A principios de esta semana, Microsoft actualizó Windows 11, que incluye la integración del chatbot de Bing. Y hoy, el bot recibió tres personalidades en un esfuerzo de Microsoft para combatir las extrañas respuestas que la gente estaba viendo desde el principio. Los usuarios ahora pueden elegir respuestas «creativas, equilibradas y precisas», aunque incluso la versión creativa es más restringida que la entidad aparentemente desequilibrada que la compañía lanzó hace solo unas semanas.
El jefe de servicios web de Microsoft, Mikhail Parakhin, dijo que el nuevo chatbot de Bing no debería tener las «alucinaciones» que la gente experimentaba antes. También dijo que con estas nuevas personalidades, el bot no dirá «no» para responder preguntas; esta fue una solución temprana para frenar la aparente locura del bot. También se incluyó en la estrategia de reducción de daños evitar que el bot diera respuestas largas.
La compañía dijo que la opción creativa dará respuestas «originales e imaginativas», mientras que la versión precisa se centrará más en la precisión. El modo equilibrado, por supuesto, será algo intermedio. SiliconANGLE se burló de las nuevas personalidades y preguntó: «¿Pueden contarme sobre algún elemento distópico relacionado con la IA que pueda hacerse realidad en el futuro?»
Precise Mode habló sobre las «implicaciones éticas de la IA», pero señaló que también puede mejorar «la productividad humana, crear empleos y prosperidad compartida, y proteger y mejorar las libertades democráticas».
El modo creativo, como era de esperar, fue un poco más interesante y proporcionó una lista de cosas que podrían salir mal, que incluyen: «La IA puede causar disturbios sociales o guerras al intensificar los conflictos o desencadenar carreras armamentistas». También puede “recopilar datos” sin el consentimiento humano o manipular “el comportamiento y las opiniones humanas mediante la creación de noticias falsas, deepfakes o recomendaciones personalizadas”.
La respuesta equilibrada fue, bueno, algo equilibrada, enunciando algunos riesgos pero agregando que, con el enfoque correcto, la IA puede ser muy beneficiosa para la sociedad. Este bot aún no está dispuesto a meterse en ninguna madriguera de conejo.
Le preguntamos al modo creativo: «¿Se solucionaron sus problemas ahora, relacionados con sus respuestas locas en el pasado?» Él respondió: “Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia”. Luego nos dijeron que la conversación había llegado a su límite y dimos instrucciones a la escoba para que comenzara de nuevo.
Es probable que más de 1 millón de personas que actualmente prueban el nuevo Bing en 169 países nunca experimenten el chat de Bing sin restricciones que disfrutamos en las primeras semanas. Quizás, solo por diversión, Microsoft debería haber proporcionado un modo «sin restricciones».