Por Jaspreet Singh
(Reuters) – A Meta anunciou nesta sexta-feira aumento de proteção a adolescentes que utilizam seus produtos de inteligência artificial, instruindo seus modelos para evitarem conversas que envolvam temas amorosos e discussões sobre automutilação ou suicídio com menores de idade.
A empresa dona do Facebook, Instagram e WhatsApp também anunciou que está limitando temporariamente o acesso a determinados personagens de IA.
Uma reportagem da Reuters no início de agosto revelou como a Meta permitia comportamentos provocativos dos chatbots, inclusive permitindo que os bots se envolvessem em “conversas românticas ou sensuais”.
O porta-voz da Meta, Andy Stone, disse em um email enviado nesta sexta-feira que a empresa está tomando essas medidas temporárias enquanto desenvolve ações de longo prazo para garantir que os adolescentes tenham experiências de IA seguras e adequadas à idade.
Stone disse que as salvaguardas já estão sendo implementadas e serão ajustadas ao longo do tempo, à medida que a empresa refina seus sistemas.
As políticas de IA da Meta foram submetidas a intensas críticas e reações adversas após a reportagem da Reuters.
A Advocacia-Geral da União (AGU) no Brasil enviou em meados do mês uma notificação extrajudicial à Meta em que pede a imediata exclusão dos chatbots das redes sociais da empresa que, segundo o órgão, simulam perfis com linguagem e aparência infantil, mas que têm permissão de travar diálogos de cunho sexual com os usuários.
O senador norte-americano Josh Hawley lançou uma investigação sobre as políticas de IA da empresa no início deste mês, exigindo documentos sobre as regras que permitiam que os chatbots do grupo interagissem de forma inadequada com menores de idade.
Tanto os democratas quanto os republicanos no Congresso dos Estados Unidos expressaram alarme sobre as regras descritas em um documento interno da Meta que foi analisado pela Reuters para a reportagem.