PL das Fake News: especialistas defendem moderação humana para excluir (ou não) posts


 Entre os pontos mais discutidos do projeto de lei 2630/2020, conhecido como PL das Fake News, está a moderação de conteúdo nas plataformas digitais – que incluem aplicativos de mensagem, redes sociais e mecanismos de busca.

Quem decide quais conteúdos seriam permitidos e quais passariam a ser proibidos? Retirar um post do ar fere a liberdade de expressão? Moderar conteúdo é trabalho de robô ou ser humano?

Apesar de o PL das Fake News continuar sem data para ser votado na Câmara, a presidente do Supremo Tribunal Federal (STF), Rosa Weber, marcou para 17 de maio o julgamento de ações que discutem a responsabilidade das redes sociais e aplicativos de mensagem na moderação de conteúdo.

A CNN conversou com especialistas para entender como as empresas fazem a moderação de conteúdo em suas plataformas, atualmente, e o que poderia mudar.

A legislação atual estabelece que as plataformas digitais não são obrigadas a moderar o conteúdo que elas hospedam, mas também não estão isentas de decisões judiciais que determinem a remoção ou outro tipo de ação de algum conteúdo.
Moderação baseada em inteligência artificial

O artigo 19 do Marco Civil da Internet regula o tema: “Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”

Cada plataforma pode decidir como moderar seu conteúdo, pois cada uma funciona de um jeito – o Instagram, que é focado em fotos e vídeos, tem regras específicas para estes conteúdos, enquanto o Twitter, que hospeda pequenos textos, tem regras diferentes do que é permitido ou não.

Independentemente do formato, especialistas ressaltam que a moderação da grande maioria dos conteúdos é feita de forma automatizada, por meio de inteligência artificial.

“Precisamos das máquinas para fazer esse trabalho porque o volume de conteúdos postados nas grandes plataformas requereria um verdadeiro exército de profissionais para revisar tudo”, diz Carlos Affonso, diretor do Instituto de Tecnologia e Sociedade (ITS) e um dos idealizadores do Marco Civil da Internet.

Ele aponta que as aplicações de inteligência artificial estão cada vez mais preparadas para identificar conteúdos específicos, como cenas de nudez, pornografia infantil e obras protegidas por direitos autorais.

“Nesses casos, existem bases de dados compartilhadas globalmente de conteúdos ilícitos que facilitam o treinamento dos sistemas”, afirma Affonso. “Muitas vezes, esses conteúdos são identificados e bloqueados antes mesmo de subir na plataforma.”

Segundo ele, a inteligência artificial é eficiente para reconhecer padrões, mas ainda falha ao entender o contexto em que uma mensagem se insere.

Ela funciona apenas em casos objetivos. O Instagram, por exemplo, não permite nudez na plataforma, então qualquer conteúdo que apresente nudez é automaticamente retirado do ar. Para o robô, não faz diferença se é pornografia de vingança ou nudez artística.

Victor Durigan, coordenador de relações institucionais do Instituto Vero e membro da Coalizão Direitos na Rede, explica que a moderação humana é necessária para os conteúdos que precisam de contexto na hora de decidir sobre a exclusão ou não de uma publicação.

Ele cita, como exemplo, a expressão “golpe de Estado”. “Se essas palavras estão sendo faladas por um cientista político, é uma coisa; se são manifestantes pedindo um golpe de Estado, é outra.”

Para ele, toda a questão que envolve moderar desinformação nas plataformas está dentro dessa área pouco objetiva. “Muitas vezes, é um conteúdo que é parte verdade, e a outra parte é exagerada ou distorcida”, diz Durigan.

“Qual é o limiar entre a desinformação e um momento tenso de polarização política? Quando a gente entrega para uma plataforma a responsabilidade de retirar esse tipo de conteúdo, a gente acaba entregando para ela um poder de decisão entre o que é verdade ou mentira.”

Por isso, para Durigan, a transparência é o “fio condutor” das leis que tratam de regulamentação das plataformas, já que atualmente os algoritmos usados pelas empresas não são públicos.

Segundo ele, essa é a única forma de entender detalhes sobre funcionamento, políticas e métodos de moderação das plataformas – conhecendo, inclusive, a equipe que analisa o conteúdo.

O que o PL das Fake News propõe para a moderação de conteúdo?

Para Carlos Affonso, o diferencial do projeto proposto é incentivar a moderação de conteúdo.

“Esse esforço é importante, porque algumas empresas – como o Twitter, recentemente – diminuíram sensivelmente seus investimentos na área, prejudicando a forma pela qual os conteúdos danosos são identificados e removidos da plataforma.”

Victor Durigan pontua que o investimento na área é de extrema importância.

“A pessoa que faz a revisão disso é brasileira, que entende o contexto político brasileiro? Ou é, por exemplo, um estrangeiro que às vezes nem fala português e tem que analisar uma questão de contexto político-eleitoral brasileiro para fazer a moderação de conteúdo? Isso é muito importante e causa muito impacto”, ressalta.

Para Durigan, há uma confusão sobre o que o PL realmente propõe. “O Projeto de Lei não trata de conteúdos individuais, mas de conteúdos de forma coletiva. Quando existe, por exemplo, muitos conteúdos que estão indicando um mesmo tipo de objetivo, como a plataforma vai atuar sobre isso?”

As plataformas digitais ainda poderão decidir sobre a própria moderação de conteúdo, mas elas também serão obrigadas a prevenir os riscos que o seu serviço pode oferecer. Durigan explica que o PL 2630 traz um “dever de cuidado” sobre conteúdos específicos, que não significa, necessariamente, a obrigação de excluir conteúdos.

“É um dever de prevenção em cima de alguns conteúdos que são crimes; é o caso, por exemplo, de crimes de indução a terrorismo, contra crianças e adolescentes e contra o estado democrático de direito. Não é que a plataforma tem o dever de excluir um conteúdo que fale sobre o crime, mas ela tem um dever geral de não permitir que conteúdos sobre crimes circulem amplamente nas redes sociais.”

Para ele, mais importante que moderar conteúdos é pensar no serviço que as plataformas oferecem, quais são os riscos envolvidos e como elas devem atuar para mitigar esses riscos.

“Esperamos que a moderação de conteúdo não seja vista como um efeito colateral do sucesso de uma plataforma, mas sim como um elemento integral do seu desenvolvimento”, conclui Carlos Affonso.

Mudanças na moderação do Youtube

No mês passado o YouTube anunciou uma série de mudanças na moderação de conteúdo, nos Estados Unidos, sobre um assunto específico: distúrbios alimentares. O YouTube afirmou que vai implementar a política globalmente nas próximas semanas e planeja usar o mix de moderação humana e automatizada para revisar vídeos desse assunto e seu contexto.

Nesse caso, a plataforma consultou a National Eating Disorder Association e outras organizações sem fins lucrativos que indiquem a criação de um “espaço para recuperação e recursos da comunidade, enquanto continua a proteger nossos espectadores”, disse o chefe global de assistência médica do YouTube, Garth Graham, à CNN.

Quando o vídeo de um criador é removido por violar sua política de distúrbios alimentares, Graham afirmou à CNN que o YouTube enviará a eles recursos sobre como criar conteúdos com menor probabilidade de prejudicar outros usuários.

Em março foi a vez da Meta, empresa controladora do Facebook, anunciar ua reformulação de seu sistema de moderação de “verificação cruzada”, após enfrentar críticas por dar tratamento especial a usuários VIPs – como políticos, celebridades, jornalistas e parceiros de negócios da Meta como anunciantes –, aplicando diferentes processos de revisão para postagens para eles, em comparação com usuários comuns.

O programa de verificação cruzada foi criticado em novembro de 2021, depois que um relatório do Wall Street Journal indicou que o sistema protegeu alguns usuários VIP do processo normal de moderação de conteúdo da empresa, em alguns casos permitindo que eles postassem conteúdos que violassem as regras, sem consequências.

(Com informações de Clare Duffy, da CNN)

CLICKPB



BORGES NETO LUCENA INFORMA

Postar um comentário

0 Comentários