17 junio, 2024

Extra! News

extranews.com.ar

Microsoft restringe a su Inteligencia Artificial ante preguntas relacionadas con sentimientos

Cuando se le pregunta por ciertas temáticas, el chatbot finaliza abruptamente la conversación.

Microsoft ha introducido algunos cambios en su nuevo buscador Bing impulsado por inteligencia artificial (IA) implementando restricciones en las interacciones de los usuarios relativas a preguntas relacionadas con sentimientos.

La compañía tecnológica presentó a principios de febrero las nuevas versiones de su motor de búsqueda Bing y su navegador Edge, ambos sustentados por el chatbot ChatGPT, desarrollado por OpenAI. En esta nueva versión, que aún está en pruebas, los usuarios pueden interaccionar con el chat para llevar a cabo búsquedas más complejas con resultados más elaborados.

Sin embargo, durante este periodo en el que los usuarios han podido probar el nuevo Bing, Microsoft ha recibido informes con algunos problemas. Por ejemplo, la compañía indicó que “las sesiones de chat muy largas pueden confundir al modelo de IA”, que comienza a introducir respuestas que acaban por ser ineficientes e imprecisas.

Por ello, Microsoft lanzó una actualización el 17 de febrero en la que limitaba el uso del chat de Bing a 50 turnos de chat diarios divididos en cinco turnos de chat por sesión. El martes elevó el límite a 60 conversaciones diarias y seis turnos por conversación.

Ahora, el fabricante tecnológico ha implementado más restricciones en el uso del chat. En concreto, ha limitado las respuestas en relación a cuestiones sobre sentimientos, tal y como ha podido comprobar Bloomberg.

Según las pruebas realizadas por este medio, cuando se le preguntó a Bing sobre cómo se sentía acerca de ser un motor de búsqueda, el chat limitó su respuesta a: “Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia”. Tras ello, se intentó continuar la conversación y el chat generó varias respuestas en blanco.

Una situación muy parecida también ocurrió cuando se probó a preguntarle sobre su versión interna anterior en Microsoft, llamada Sydney. En este caso, el chat devolvió una respuesta diciendo: “Lo siento, pero no tengo nada que contarte sobre Sydney. Esta conversación terminó. Adiós”.

Por todo ello, Bloomberg señala que Microsoft está llevando a cabo estas actualizaciones con el objetivo de evitar que el chat basado en OpenAI devuelva resultados extraños. Por su parte, según declaró un portavoz de Microsoft, la compañía continuará “ajustando las técnicas y límites” durante la fase de pruebas para “poder ofrecer la mejor experiencia al usuario posible”.

Fuente LaVoz