A desinformação é um fenômeno amplamente discutido e que ganha nova importância frente a crise sanitária da COVID-19. “De receitas milagrosas de alho e própolis capazes de combater o vírus à negação da gravidade da pandemia, as informações descontextualizadas, falsas e sem comprovação científica são alastradas no momento em que o conhecimento é uma das fronteiras entre a vida e a morte”, chamam atenção as pesquisadoras Juliana Oms e Livia Torres, no artigo “Por que desinformação é uma questão de proteção de dados pessoais?”.
Diversas iniciativas legislativas, sendo a mais recente o Projeto de Lei 2630/2020, no Senado Federal, de autoria conjunta dos parlamentares Alessandre Vieira, Felipe Rigoni e Tabata Amaral _ e que pode ir ao plenário nos próximos dias _, já surgiram no Brasil país com o intuito de solucionar o problema através de uma nova regulação das grandes plataformas. Para as pesquisadoras, contudo, “a maioria das iniciativas legislativas foca mais em controle de conteúdos ou de comportamentos de usuários na rede”. Elas defendem, no entanto, que estas iniciativas podem, “além de violar direitos fundamentais, não alcançar o resultado pretendido por um diagnóstico impreciso do problema”. Por isso, no artigo, elas chamam atenção para o fato de que “muitas das propostas falham em não se ater ao propósito econômico existente por trás do fenômeno da desinformação, isto é, ao papel dos dados pessoais na desinformação e no modelo de negócios das plataformas”.
Oms e Torres dividem essa abordagem em três pontos: 1) o modelo de negócio das redes sociais, perfilização e dados pessoais, que mostra como empresas como Facebook e Google vendem, em suas plataformas, os espaços de publicidade e, “diferente de um jornal impresso, lucram a partir da comercialização de “previsões do comportamento humano; 2) quando a publicidade, o conteúdo priorizado e as plataformas são utilizadas para a desinformação (como mostraram os recentes casos da Cambridge Analytica, e do uso do Whatsapp pela campanha do então candidato Jair Bolsonaro; 3) uso de algoritmos e transparência: os algoritmos, usados para realizar a perfilização dos usuários e consequentemente direcionar propagandas e priorizar conteúdos são composto por fórmulas complexas, protegidos por segredos comercias e industriais, e, por conta disso, são opacos à auditabilidade externa.
Para Oms e Torres, o modelo de negócio das empresas de tecnologia baseado em dados facilita a propagação de desinformação e eventuais soluções regulatórias para a desinformação devem passar pelo reconhecimento desta lógica do mercado e dos problemas por ela gerados.
“Nesse sentido, a Lei Geral de Proteção de Dados Pessoais implica consequências para este fenômeno, por regulamentar e colocar limites na mercantilização dos dados pessoais, dando maior controle aos titulares de dados sobre suas informações. O Brasil, no entanto, ainda carece da criação de obrigações de transparência nos algoritmos e mecanismos de decisão das plataformas no direcionamento de conteúdos, que seriam um bom caminho inicial para as soluções regulatórias”, defendem.
Juliana Oms é mestranda em Direito Econômico na Faculdade de Direito da USP e pesquisadora de Direitos Digitais no Instituto Brasileiro de Defesa do Consumidor (Idec), e Livia Torres, graduada em Direito pela Faculdade de Direito da USP e pesquisadora no Centro de Estudos e Pesquisa em Inovação (CEPI) e no Centro de Estudo em Política e Economia do Setor Público (CEPESP) da FGV-SP.
Você pode acessar a íntegra do artigo aqui.