A Microsoft anunciou que está buscando medidas para controlar o chatbot Bing com inteligência artificial, depois de vários usuários compartilharam respostas com erros ou em tom de confronto ou “fora do tom projetado”.
+ Samsung: streaming de games chega a mais modelos de TVs
+ Diablo IV: datas do beta aberto são anunciadas
+ Twitter vai passar a cobrar autenticação em duas etapas
De acordo com a empresa, foi descoberto que sessões muito longas podem deixar o modelo confuso em relação à questão que precisa ser respondida. Além disso, o chatbot, em alguns casos, tenta responder a um questionamento no mesmo tom provocativo da pergunta, o que pode levar a respostas indesejadas.
Como uma solução imediata, a Microsoft começou a limitar os diálogos em 50 chats por dia e 5 turnos de chat por sessão. Turno é definido como o diálogo com a pergunta e a resposta do Bing. Depois disso, o usuário será convidado a iniciar um novo diálogo.
Em um post em um dos seus blogs oficiais, a companha destaca que o limite é temporário e irá mudar a assim que a Microsoft encontrar uma solução para lidar com esse problema do Bing envolvendo chats longos.