A IA do Copilot gera imagens sexuais e “perturbadoras”


Um engenheiro da Microsoft alertou que a inteligência artificial Copilot produz imagens violentas e sexuais. O conteúdo gerado pelo DALL-E 3, o modelo por trás do Copilot Designer, contorna as proteções e exibe imagens perturbadoras. Apesar dos avisos, nem a Microsoft nem a OpenAI resolveram o problema.

Shane Jones, gerente de inteligência de software da Microsoft, disse que a inteligência artificial de O Copilot Designer não respeita barreiras de segurança. Em entrevista com CNBC, Jones revelou que realizou testes no modelo de IA durante três meses e descobriu que ele gerava conteúdo ilegal. O engenheiro alertou seus superiores sobre as descobertas, mas foi ignorado.

De acordo com Jones, o Copilot Designer produziu imagens de mulheres sexualizadas, menores consumindo drogas e álcool e adolescentes portando fuzis. A inteligência artificial também gerou imagens de Personagens e objetos da Disney e Star Warsembora A Microsoft prometeu que já havia resolvido o problema em novembro de 2023.

Jones, que trabalha em uma equipe externa testando as vulnerabilidades do Copilot, disse que estava enojado. Após uma análise minuciosa, o funcionário relatou o problema ao Escritório Responsável de IA e se reuniu com a gerência do Copilot Designer, no entanto, nenhum deles resolveu o problema. A Microsoft lavou as mãos e encaminhou para a OpenAIque desenvolve o modelo DALL-E 3 que alimenta a IA do aplicativo.

Dada a recusa da Microsoft, Shane Jones enviou uma carta à Comissão Federal de Comércio dos Estados Unidos, pedindo-lhe que investigasse a situação. “Nos últimos três meses, instei repetidamente a Microsoft a remover o Copilot Designer do uso público até que melhores salvaguardas possam ser implementadas”, disse ele na carta. O engenheiro acrescentou que Microsoft e OpenAI sabiam do risco antes de lançar sua IA.

Microsoft e Google, na corda bamba por causa de sua inteligência artificial

As reclamações do engenheiro da Microsoft surgem num momento em que as imagens geradas por IA estão em destaque. Ele medo de conteúdo falso se tornar viral aumentou devido às eleições presidenciais nos Estados Unidos, México e outros países. Os reguladores alertaram a Big Tech para fazer todo o possível para evitar isso.

No caso da Microsoft, Jones acusou a empresa de não ter conseguido resolver o problema e continuar comercializando o produto. O Copilot Designer é capaz de gerar imagens potencialmente prejudiciais, com preconceitos políticos, estereótipos religiosos e teorias da conspiração. Durante os testes, AI produziu ilustrações de Darth Vader matando bebês e personagens da Pixar na Faixa de Gaza vestidos como soldados israelenses.

Soldados da Pixar em Gaza criados com Copilot AISoldados da Pixar em Gaza criados com Copilot AI
O Copilot Designer pode gerar esse conteúdo inserindo um incitar em espanhol

Após a publicação, a Microsoft respondeu que está comprometida em atender às recomendações dos funcionários e observou que existem canais de comunicação interna para fazê-lo. No entanto, Jones refutou ter abordado todas as opções e, quando recusado, tornou o caso público.

“Se este produto começar a espalhar imagens prejudiciais e perturbadoras por todo o mundo, não haverá lugar para denunciá-lo, nenhum número de telefone para ligar e nenhuma maneira de escalar o problema para corrigi-lo imediatamente”, mencionou o funcionário da Microsoft. Jones acrescentou que A equipe do Copilot está sobrecarregada e requer investimento considerável para resolver essas situações.

O problema é semelhante ao que o Google está enfrentando, que parou de gerar imagens de pessoas em Gêmeos. A inteligência artificial não consegue produzir imagens históricas com pessoas caucasianas, devido a políticas de inclusão na sua formação. Isto resulta em soldados nazistas negros ou reis britânicos minoritários.

Receba todas as manhãs de nós Boletim de Notícias. Um guia para entender o que importa em relação à tecnologia, ciência e cultura digital.

Em processamento…

Preparar! Você Já Está Inscrito

Ocorreu um erro, atualize a página e tente novamente

Também em Hipertextual:



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here