O risco do algoritmo: o uso de relatórios de impacto à proteção de dados pessoais no combate à discriminação algorítmica



Parte I – Sobre proponente e co-proponente

Proponente

Nome:

LAPIN - Laboratório de Políticas Públicas e Internet

Estado:

Distrito Federal

Região:

Centro-Oeste

Setor:

Terceiro Setor

Parte II - Sobre o Workshop

Resumo do workshop

Os sistemas de Inteligência Artificial são essenciais para o desenvolvimento da sociedade conectada. Contudo, a ausência de um marco legal adequado e o uso indiscriminado de decisões automatizadas potencializam o risco de decisões discriminatórias, afetando significativamente grupos vulneráveis. Diante disso, esse painel pretende entender ‘se’ e ‘como’ o Relatório de Impacto sobre a Proteção de Dados (RIPD) pode ser uma das formas de combater a discriminação algorítmica no Brasil.

Objetivos e conteúdos do workshop

Esse workshop irá abordar o fenômeno da discriminação algorítmica no cenário brasileiro, explorando o seu impacto diretamente na vida de populações mais vulneráveis bem como discutindo se e como o RIPD pode ser uma ferramenta de mitigação desse risco. Para que essa discussão tenha a profundidade merecida, os painelistas convidados irão demonstrar pontos de vista de diferentes áreas do saber, como das Ciências Sociais, da Ciência da Computação e do Direito. Além disso, a diversidade regional dos painelistas permitirá que a amplitude da discussão alcance opiniões de diversos cantos do Brasil. Esse workshop é idealizado dessa forma, pois somente uma abordagem multicultural e multidisciplinar é capaz de responder às perguntas e às provocações que a discriminação algorítmica suscita. Nesse sentido, espera-se que o debate permita entender, entre outros aspectos: como ocorre a discriminação algorítmica; o impacto real da discriminação algorítmica na vida das pessoas; qual a importância de relatórios de impacto de proteção de dados na avaliação e mitigação de riscos aos indivíduos, em particular nos contextos de discriminação algorítimica.

Relevância do tema para a Governança da Internet

A discriminação não é um tema novo no cenário brasileiro. Contudo, o uso indiscriminado de sistemas de IA em uma sociedade conectada tem potencializado o alcance e a incidência de tomadas de decisões discriminatórias que podem afetar grupos vulneráveis inteiros. Destaca-se que os sistemas de IA muito se beneficiam do ambiente digital criado pela expansão da internet em um mundo cada vez mais hiperconectado. Contudo, o crescimento acelerado e descontrolado é capaz de potencializar e produzir em grande escala os efeitos negativos causados por tais sistemas. Isso posto, é importante que esse workshop tenha a abordagem mais ampla possível. Para a sociedade civil e a academia, a discussão sobre a discriminação algorítmica ganha cada vez mais importância com a expansão de sistemas de IA que assumem protagonismo nas relações diáras. Pelo governo, a regulação do tema é pauta central, com votação de um projeto de lei que regula a IA no Brasil. Pelo setor privado, o desenvolvimento de sistemas de IA responsáveis (e que não causem discriminação) são importantes pois a IA ética promove ganho de valor reputacional de empresas e organizações. Assim sendo, se os sistemas de IA podem causar dano a uma sociedade, torna-se mais do que necessário que se discuta o fenômeno da discriminação algorítmica através de uma perspectiva da lei, de princípios e de boas práticas para a boa governança da Internet, sendo o foco aqui o RIPD. O RIPD aparece como “tecnologia jurídica”, conforme conceituado por Casamiglia Blancafort, uma ferramenta criada visando à concretização dos direitos prescritos, servindo de guia para o agente que promover a concretização das normas existentes. O tema trazido se mostra relevante para a governança da internet exatamente por promover a discussão sobre como o RIPD, nessa dimensão da tecnologia jurídica, é capaz de lidar com as questões trazidas pela discriminação algorítimica, fazendo a ponte entre questões de tecnologia e do ordenamento jurídico.

Forma de adequação da metodologia proposta

Planejamos um painel de 1h30 de duração, e que consistirá em: - 5 minutos para introdução do tema e apresentação dos painelistas; - 40 minutos destinados para os palestrantes exporem seus temas, sendo, respectivamente, 10 minutos para cada um; - 25 minutos de debate guiado, seja por perguntas apresentadas pelo moderador, seja por provocações por parte dos palestrantes; - 15 minutos para perguntas online e presenciais (havendo audiência) - 5 minutos para resumos dos pontos abordados e encerramento do painel

Engajamento da audiência presencial e remota

Um mês antes da realização do painel, lançaremos nas redes sociais informações em vídeo e em texto sobre o tema. Esse ‘aquecimento’ servirá tanto para gerar engajamento da audiência. Desde esse momento iremos receber dúvidas e observações que serão organizadas e repassadas aos painelistas. No dia da apresentação, haverá diferentes formas de engajamento, justamente para respeitar o formato presencial e remoto. Caso o painel ocorra somente em formato remoto, a audiência terá a possibilidade de interagir e realizar perguntas através do chat. Essas perguntas serão organizadas e repassadas aos painelistas para respostas. Caso o painel ocorra presencialmente, a audiência realizará perguntas diretamente aos painelistas nos 30 minutos finais do painel. Haverá possibilidade de engajamento também após o encerramento do painel. As dúvidas não respondidas poderão ser encaminhadas para os painelistas e para nós. Sendo pertinentes, essas dúvidas irão compor um relatório final.

Resultados pretendidos

O workshop pretende atingir quatro principais resultados: 1) dimensionar o impacto social que a discriminação algorítmica provoca em grupos vulneráveis no cenário brasileiro; 2) perceber o RIPD como uma ferramenta legal de resolução de problemas, e como a sua aplicação pode aumentar a transparência e promover a prestação de contas de sistemas de IA, tornando-se uma ferramenta contra a discriminação algorítmica; 4) entender a discriminação algorítmica pela visão da computação; 5) identificar possíveis soluções / alternativas para inibir e mitigar danos generalizados e em grande escala por sistemas de IA A discussão não irá se encerrar no fórum: a sessão será o ponto de partida para ações de continuidade sobre o tema, como realização de oficinas, oferta de cursos, etc., a partir da identificação dos consensos, dissensos e pontos-chave no relatório da sessão.

Relação com os príncipios do Decálogo

Liberdade, privacidade e direitos humanos

Temas do workshop

DINC – Grupos excluídos e minoritários | DINC – Viés de algoritmos | NTIA – Inteligência Artificial |

Aspectos de diversidade relevante

Gênero | Cor ou raça | Pessoas com deficiência |

Como a proposta integrará os aspectos de diversidade

O tema de discriminação algorítimca somente pode ser discutido a partir de uma diversidade cultural e disciplinar. No que se refere à diversidade cultural, nosso painel sobre discriminação será composto por painelistas que possam falar com propriedade sobre o tema. Por isso, ao menos dois dos quatro convidados serão mulheres, pessoas negras e/ou LGBTQIA+. Além disso, como forma de dar voz a todos os cantos do Brasil, iremos priorizar painelistas do Norte, Nordeste e Sul do país. Considerando aspectos de diversidade disciplinar, nossos painelistas irão representar ao menos três áreas distintas, sendo elas Ciências Sociais, Ciência da Computação e Direito. Essa multidisciplinaridade permite que a discussão sobre discriminação algorítmica alcance todo o seu potencial, pois esse é um tema complexo e que necessita de uma abordagem diferenciada.
Ir para o topo