Um estudo afirma que as ferramentas de proteção do Instagram para adolescentes estão falhando em impedir que jovens vejam conteúdo sobre suicídio e automutilação.
A OpenAI anunciou novos controles parentais que permitirão que pais recebam alertas quando o sistema identificar que seus filhos adolescentes estão em momentos de "sofrimento agudo". A medida surge após um casal da Califórnia processar a empresa alegando que o chatbot incentivou o suicídio de seu filho de 16 anos.
A Meta está implementando novas proteções em seus chatbots de inteligência artificial, bloqueando especificamente conversas com adolescentes sobre temas sensíveis como suicídio, automutilação e transtornos alimentares.