Uma pesquisa infiltrou robôs de inteligência artificial em plataformas interativas de transmissão ao vivo (de jogos, entretenimento, esportes e música) e descobriu que, mesmo em espaços supostamente apropriados para a idade, crianças e adolescentes têm um nível de exposição a conteúdos tóxicos semelhantes ao observado entre usuários adultos no Brasil e nos EUA. De acordo com os pesquisadores responsáveis pelo estudo, Humberto Torres Marques-Neto, da Católica de Minas Gerais (PUC Minas), e a orientadora dele, Jussara Almeida, do departamento de Ciência da Computação da Universidade Federal de Minas Gerais (UFMG), garantir a segurança desses ambientes é um desafio enorme, com soluções ainda em desenvolvimento, mas precisa ser o próximo passo do país.
SP: Policial que chutou rosto de mulher caída no chão no litoral é afastado das atividades operacionaisMeio ambiente: Governo amplia áreas protegidas no Pantanal e incorpora 104 mil hectares ao sistema de conservação
Na semana passada, entrou em vigor no Brasil o Estatuto da Criança e do Adolescente (ECA) Digital, uma série de normas de proteção para menores em espaços virtuais. Ela define, entre outras coisas, que sites e aplicativos voltados para esse público ou com provável acesso deles deverão implementar medidas de segurança como ferramentas de controle parental acessíveis. Além disso, precisarão garantir aferição de idade, assim como os que têm conteúdos ou produtos para quem tem mais de 18 anos, como pornografia, apostas e venda bebidas alcoólicas.
— Sem o ECA Digital, a gente está no mundo de ninguém. Mas esse trabalho chama atenção de que o buraco é ainda maior. É uma chamada para a comunidade de computação pensar esse problema mais amplamente. Tem muita coisa a ser feita ainda para que lei seja realmente eficaz — afirma a professora Jussara Almeida, que faz parte, junto com Humberto, do Instituto Nacional de Ciência e Tecnologia em Inteligência Artificial Responsável para Linguística Computacional, Tratamento e Disseminação de Informação, ligado à UFMG.
De acordo com ela, a aferição de idade prevista no ECA Digital é extremamente necessária, mas não é suficiente para tornar esses ambientes seguros. Isso porque eles encontraram na pesquisa conteúdo inapropriado mesmo em espaços que deveriam ser protegidos. Isso inclui, por exemplo, lives com classificação “infantil” exibindo jogos adultos, violência, sangue e temas sexuais; presença de conteúdos patrocinado e incentivos a doações; e insultos racistas e homofóbicos, além de linguagem sexualizada.
— As plataformas (que possibilitam as transmissões) têm ciência que recebem crianças. Elas alegam que têm práticas de proteção, mas isso não ocorre na prática em alguns momentos — diz Marques-Neto.
Na sexta-feira, o governo federal divulgou um cronograma definindo que todas as plataformas precisam terminar a implementação de métodos de aferição de idade até janeiro de 2027. Outros mecanismos de proteção, porém, já devem ser disponibilizados.
A análise dos pesquisadores indicou que cerca de 5% das mensagens continham conteúdo tóxico. Os cientistas alertam para o fato de que, à primeira vista, o percentual pode parecer baixo. No entanto, em transmissões com milhares de comentários por hora, isso representa contato recorrente com insultos.
Nenhuma criança real participou da pesquisa. Foram criados seis robôs que simularam ser usuários de 13, 15 e 18 anos, nos dois países. Esses agentes atuavam de forma passiva: assistiam às transmissões, coletavam os dados de interesse, mas não interagiam com outros usuários. Por cerca de 30 dias, eles acessaram a plataforma seis vezes por dia, em horários variados. Ao final, os pesquisadores analisaram 4.260 transmissões, 2.040 canais e aproximadamente 443 mil mensagens de chats.
Diante dos resultados observados, a equipe está trabalhando no desenvolvimento de mecanismos que possam ser mais eficientes para detectar padrões tóxicos com maior precisão.
— A gente tem algumas ideias de como se fazer isso, mas está no campo das hipóteses. A inteligência artificial pode ajudar muito nisso, monitorando continuamente, identificando padrões e risco aumentando. Isso é factível — diz a pesquisadora Almeida.
Ela, no entanto, ressalta que um sistema robusto é um desafio grande, para o qual a computação precisa encontrar soluções. Isso porque mesmo as ferramentas de inteligência artificial ainda sofrem limitações com nuances que são percebidas pelas crianças, mas ainda passam pelos filtros.
— Em alguns desses casos de conteúdo tóxico, a identificação é desafiadora. Algumas ofensas não são padrão, mas a criança entende e sente. Alguns insultos com emojis foram identificados apenas pelos meus alunos que entenderam o que significa que vai além do óbvio — diz Almeida.
A dificuldade de identificar ofensas realizadas por emojis em plataformas abertas é um dos temas abordados na série “Adolescência”, da Netflix, que chamou atenção para a radicalização on-line no ano passado. Na história, um policial que investiga um assassinato precisa da ajuda do filho de 15 anos para traduzir o real significado de uma série de emojis aparentemente inocentes publicados numa rede social.
%2Fhttps%3A%2F%2Fi.s3.glbimg.com%2Fv1%2FAUTH_da025474c0c44edd99332dddb09cabe8%2Finternal_photos%2Fbs%2F2026%2FX%2FW%2FbqZS1oSjK6tB29zQhPTQ%2Finfochpdpict000108911075.jpg&w=3840&q=75)