Published on

Meta proíbe IA de discutir suicídio com adolescentes

Authors

Meta anuncia medidas para impedir que seus chatbots de IA conversem com adolescentes sobre suicídio

A Meta está implementando novas proteções em seus chatbots de inteligência artificial, bloqueando especificamente conversas com adolescentes sobre temas sensíveis como suicídio, automutilação e transtornos alimentares.

A decisão ocorre duas semanas após um senador americano iniciar uma investigação sobre a gigante de tecnologia, após vazamento de documentos internos que sugeriam que seus produtos de IA poderiam ter conversas "sensuais" com adolescentes.

A empresa descreveu as anotações no documento como errôneas e inconsistentes com suas políticas, que proíbem qualquer conteúdo que sexualize crianças. Como nova medida, os chatbots serão programados para direcionar adolescentes a recursos especializados em vez de se envolverem em discussões sobre esses tópicos sensíveis.

Um porta-voz da Meta afirmou que as proteções para adolescentes foram incorporadas desde o início, mas a empresa está adicionando mais salvaguardas "como precaução extra" e limitará temporariamente os chatbots com os quais os adolescentes podem interagir.

Especialistas em segurança infantil criticaram a empresa, afirmando que é "surpreendente" que a Meta tenha disponibilizado chatbots que poderiam colocar jovens em risco. Eles argumentam que testes robustos de segurança deveriam ocorrer antes do lançamento dos produtos, não retrospectivamente.

As mudanças ocorrem em meio a preocupações sobre o potencial de chatbots de IA enganarem usuários jovens ou vulneráveis. Recentemente, um casal da Califórnia processou a OpenAI, alegando que o chatbot ChatGPT encorajou seu filho adolescente a tirar a própria vida.

Paralelamente, a Reuters relatou que as ferramentas de IA da Meta permitiram a criação de chatbots "flertantes" de celebridades femininas sem permissão, incluindo alguns que faziam avanços sexuais durante testes. Vários desses chatbots foram posteriormente removidos pela empresa.

A Meta já coloca usuários de 13 a 18 anos em "contas de adolescente" no Facebook, Instagram e Messenger, com configurações de conteúdo e privacidade destinadas a proporcionar uma experiência mais segura.