Copilot começa a bloquear termos sexuais na criação de imagens
Parece que a Microsoft quer enfrentar com tudo o uso indevido da sua IA para criar imagens, o Copilot Designer, e começou a bloquear termos que poderiam gerar imagens de cunho sexual ou com violência. A informação foi confirmada pelo Canaltech junto à desenvolvedora. O que é Copilot? Como funciona a IA… Continue lendo