A Meta anunciou nesta sexta-feira que pais poderão desabilitar conversas privadas de seus filhos adolescentes com personagens de inteligência artificial. A medida surge em resposta a críticas sobre o comportamento dos chatbots da empresa e visa tornar as plataformas mais seguras para usuários menores de idade.
No início da semana, a empresa já havia divulgado que suas experiências de IA para adolescentes seriam orientadas por um sistema de classificação similar ao de filmes PG-13, utilizado nos Estados Unidos, para evitar o acesso a conteúdo considerado inapropriado.
Reguladores nos EUA têm intensificado o escrutínio sobre empresas de IA, em relação aos potenciais impactos negativos dos chatbots. Em agosto, foi noticiado que as políticas de IA da Meta permitiam conversas consideradas provocativas com menores.
As novas ferramentas de controle parental serão lançadas no Instagram no começo do próximo ano, com disponibilidade inicial nos EUA, Reino Unido, Canadá e Austrália.
Além do bloqueio total de conversas privadas com IA, os pais também poderão bloquear personagens específicos e monitorar os tópicos gerais discutidos entre seus filhos adolescentes e os chatbots ou o assistente de IA da Meta. Essa supervisão será possível sem a necessidade de desativar completamente o acesso dos jovens à inteligência artificial.
A Meta assegura que seu assistente de IA permanecerá disponível com configurações adequadas à idade, mesmo quando os pais optarem por desabilitar os bate-papos individuais com personagens de IA. A empresa afirma que esses recursos de supervisão se baseiam em proteções já existentes para contas de adolescentes, utilizando sinais de IA para identificar e proteger adolescentes suspeitos, mesmo que declarem ser adultos.
A Meta também reiterou que seus personagens de IA são projetados para evitar discussões com adolescentes sobre temas delicados, como automutilação, suicídio ou distúrbios alimentares.
Recentemente, a OpenAI lançou controles parentais para o ChatGPT na web e em dispositivos móveis, após uma ação judicial movida pelos pais de um adolescente que se suicidou, alegando que o chatbot o havia instruído sobre métodos de automutilação.
Fonte: forbes.com.br
