Bastidores da moderação de conteúdo - como é controlado o discurso online?



Parte I – Sobre proponente e co-proponente

Proponente

Nome:

Lahis Pasquali Kurtz

Estado:

Minas Gerais

Região:

Sudeste

Setor:

Terceiro Setor

Organização:

IRIS - Instituto de Referência em Internet e Sociedade

Parte II - Sobre o Workshop

Formato do workshop

Mesa redonda

Resumo do workshop

As decisões de moderação de conteúdo na internet devem considerar diversidade, inclusão e livre expressão. A forma como essas escolhas deveriam ser tomadas é conhecida, porém a forma como de fato operam ainda é obscura. O objetivo deste workshop é esclarecer na prática quais os mecanismos e preocupações que guiam a intervenção no discurso online. Para isso, propomos o diálogo entre estudiosos, reguladores, usuários, criadores e profissionais de moderação sobre os bastidores desses procedimentos.

Objetivos e conteúdos do workshop

Existe um senso comum de que alguns tipos de conteúdo na internet têm sua circulação controlada. Entretanto, a maioria das pessoas só reconhece o quanto isso se reflete na sua livre expressão ou acesso à informação quando são diretamente afetadas, suas postagens são removidas ou restritas - pois é quando o efeito fica visível. A moderação de conteúdo é necessária para promover um ambiente seguro e comercialmente viável, mas também deve ser balizada em direitos fundamentais, como a livre expressão e o acesso à informação. É importante que ela seja uma prática amplamente debatida e aberta à participação de todos os setores afetados. Neste workshop, busca-se discutir as seguintes questões: o que está por trás dessa atividade do ponto de vista das plataformas e moderadores, que elaboram e aplicam políticas de comunidade? Como é a relação entre governo e plataformas nas ordens para remover conteúdo ilícito? O que esperar da regulação de práticas nesse sentido? Como o usuário que tem seu conteúdo moderado toma conhecimento disso e como é lidar com mecanismos de recurso? Como os direitos da sociedade em geral podem ser afetados pela moderação de conteúdo? O que é recomendado pelas pesquisas existentes como alternativa para a promoção de redes de conteúdo saudável? Além de promover a transparência sobre essas práticas como algo necessário para uma visão crítica a respeito delas, busca-se compreender por que elas são adotadas. Assim, serão debatidos encaminhamentos que levam em conta os diferentes agentes, interesses e setores que delineiam a moderação de conteúdo.

Relevância do tema para a Governança da Internet

Os debates realizados na esfera pública impactam desde eleições até construção de identidades. Logo, torna-se urgente discutir os procedimentos e regras de circulação, disseminação, acesso e potencialização de ideias. O banimento de pessoas públicas de plataformas de redes sociais, a retirada indevida de conteúdos que perfazem o vocabulário da comunidade LGBTQI+ ou a exclusão errônea de canais de comunicação científica e educacional são alguns episódios que evidenciam a urgência do debate. Entretanto, tão importante quanto o debate sobre a própria moderação de conteúdo é o debate sobre a transparência desta moderação. Não são raros os casos de interferências das plataformas nas comunicações online sem a devida informação ao usuário impactado, sem a possibilidade de apresentação de defesa, sem uma clara política de comportamentos proibidos pela plataforma ou sem a divulgação das razões que motivaram tal interferência. No Brasil, a discussão sobre responsabilização de intermediários e moderação de conteúdo foi intensamente impulsionada em 2020 pelo questionamento de constitucionalidade do artigo 19 do MCI apresentado ao STF e pela tramitação do PL das Fake News. Entretanto, o debate sobre a opacidade da moderação não vem tendo a relevância necessária dentro das construções políticas ou jurídicas. Desta forma, existe risco de violar direitos, pois não há uma discussão ampla sobre a adequação de regras e padrões de moderação adequados a direitos humanos e aos princípios norteadores da internet. Para esse diálogo ser viável, é preciso que a sociedade possa acompanhar as atividades das plataformas, suas políticas de conteúdo postas em prática e os efeitos que elas têm.

Forma de participação dos(as) palestrantes

Os debates serão divididos em 3 blocos de 20 minutos para comunicação entre os participantes, com uma pauta previamente estabelecida por perguntas norteadoras para cada bloco. Entre eles, haverá rodadas de 10 minutos para trazer para o painel as manifestações pertinentes no chat. Assim, espera-se que novos questionamentos e perspectivas sejam trazidas para o debate. Considerando que a abordagem do painel aproxima a prática da teoria, para que as questões debatidas fiquem mais claras ao público ouvinte serão também trazidos pela moderação, entre os blocos, relatos de casos recentes de interferência no conteúdo gerado por usuário em plataformas que foram pouco transparentes.

Engajamento da audiência presencial e remota

No mês do evento será lançado um documento sobre o tema e serão realizadas diversas atividades online por redes sociais, seja a coleta de dúvidas sobre o tema por stories de instagram ou realização de live, para que outros atores levantem suas questões acerca do assunto, as quais serão trazidas para o workshop também. Pretende-se projetar, durante o painel, as contribuições do público acumuladas nos meses anteriores ao FIB ou então enviá-las de forma agrupada por meio do chat que estará aberto durante o workshop. A moderação irá usar hashtags e interação com o público no chat, coletando perguntas, relatos e comentários. Assim, ao aproximar o tema da realidade da audiência espera-se uma maior participação do público no debate. Além disso, espera-se que a dinamicidade do próprio workshop engaje a audiência ao trazer diferentes perspectivas de forma a criar uma ambiente de troca de conhecimentos e experiências.

Resultados pretendidos

Além do debate, propriamente dito, espera-se que o workshop seja esclarecedor sobre os principais processos e ferramentas que atualmente envolvem a moderação de conteúdo na prática. Os painelistas serão estimulados a apresentarem detalhes internos e objetivos sobre como estão envolvidos no processo de moderação de conteúdo e nos seus reflexos, além de serem incentivados a oferecerem sugestões sobre como aprimorar esses processos. Por fim, além do relatório do painel será publicado um texto didático sobre os atores envolvidos na moderação de conteúdo de forma a agregar as atuações e atividades que os painelistas informaram no painel.

Relação com os príncipios do Decálogo

Governança democrática e colaborativa

Temas do workshop

Liberdade de expressão | Moderação de conteúdo | Regulação de plataformas

Aspectos de diversidade relevante

Gênero | Região | Pessoas com deficiência

Como a proposta integrará os aspectos de diversidade

Contamos com diversidade regional, abrangendo 5 regiões do país, bem como diversidade de gênero, contando com participação feminina majoritária, além de diversidade geracional (contando com jovens e adultos de variadas faixas etárias), painelistas que integram grupos sub-representados (pessoa com deficiência visual, LGBTQI+), e integrantes de grupos que são afetados pela moderação de conteúdo (por meio das propostas de engajamento por relato de experiências individuais) e são marginalizados por essas práticas.

Ir para o topo