Regulação das plataformas digitais é discussão urgente: entrevista com João Rozatti Longhi, integrante da Comissão LGPD da DPE-PR 24/05/2023 - 11:14

Na semana passada, a Defensoria Pública do Estado do Paraná (DPE-PR) notificou extrajudicialmente o Google e o TikTok para que retirassem de suas plataformas um vídeo de um comediante de Portugal que discrimina crianças com Síndrome de Down. Ao tomar conhecimento do vídeo, um grupo de 12 famílias de crianças com Síndrome de Down que moram em Curitiba classificou o vídeo como discriminatório e cruel, e procurou a sede da Defensoria, no Centro da capital, para pedir assistência jurídica. O TikTok ainda não retirou o vídeo de sua plataforma, apenas o Google.

Para entender um pouco mais a complexidade da legislação brasileira sobre a responsabilidade das plataformas na divulgação de conteúdo produzido por terceiros, conversamos com o defensor público João Victor Rozatti Longhi, Doutor em Direito Constitucional pela Faculdade de Direito da USP com pós-doutorado em Novas Tecnologias e Direito pelo Mediterranea International Centre for Human Rights Research (MICHR), na Itália, e em Ciências Jurídicas pela Universidade Estadual do Norte do Paraná (UENP), além de integrante da Comissão para Aplicabilidade da Lei Geral de Proteção de Dados Pessoais da DPE-PR. Confira a entrevista:

Como o Marco Civil da Internet (Lei nº 12.965/2014) no Brasil estabeleceu a responsabilidade das plataformas digitais pelo conteúdo veiculado por terceiros?

João Victor Rozatti Longhi: Em seu artigo 19, o Marco Civil da Internet estabelece o atual regime de responsabilidade dos provedores em relação ao conteúdo inserido por terceiros, que são, basicamente, a estrutura das redes sociais. As redes sociais funcionam com conteúdo inserido pelos usuários, e o algoritmo organiza e oferece esse conteúdo de forma mais dirigida, incluindo publicidade, o que transformou a estrutura em um modelo de negócio muito lucrativo. Baseado na legislação norte-americana, o artigo 19 afirma que o provedor só será responsabilizado se houver uma notificação judicial dizendo que aquele conteúdo é ilícito. A legislação norte-americana, por exemplo, com o fim de, supostamente, privilegiar a liberdade de expressão, garante que todo conteúdo deve permanecer disponível online, independentemente de incitar o ódio, o racismo, a homofobia ou o nazismo. O Brasil copiou isso em praticamente tudo. Incluiu [na legislação], no entanto, que só o Poder Judiciário pode determinar a retirada se considerar o conteúdo ilegal. Isso criou uma grande proteção para as plataformas.

Na sua avaliação, como as plataformas se adequaram ao Marco Civil da Internet?

João Victor Rozatti Longhi: As plataformas se adequaram rapidamente, até porque o artigo 19 criou uma grande proteção para essas empresas. Na época, interpretando o Código de Defesa do Consumidor e o Código Civil, alguns tribunais defenderam a tese de que o provedor deveria ser responsabilizado independentemente da notificação judicial, mas com a entrada em vigor do Marco Civil, o entendimento que prevaleceu foi o da proteção das plataformas por meio do artigo 19.

O que pode ser feito quando as plataformas não atendem a um pedido extrajudicial e judicial de retirada do conteúdo considerado preconceituoso, como foi o caso divulgado na semana passada pela Defensoria?

João Victor Rozatti Longhi: Primeiro, é importante que se diga que o artigo 19 gerou o que estamos vivendo hoje no Brasil, com disseminação de conteúdos preconceituosos, apologias a crimes e às fake news. Como o controle basicamente é feito, supostamente, pelas plataformas por meio dos seus termos de uso, na prática, não há responsabilização. Por isso, é importante o debate em torno do Projeto de Lei 2630/2020, que tramita no Congresso Nacional. É uma tentativa do Legislativo de alterar essa filosofia do artigo 19. O PL copia o que a Europa fez, chamado de “Digital Service Act”. Vale ressaltar que, na Europa, ao contrário do que se propaga aqui, não houve censura. Lá, há uma "autorregulação regulada", o que gerou a responsabilização também das plataformas por conteúdos veiculados, mesmo sem notificação judicial [para a retirada do conteúdo do ar]. No caso envolvendo a assistência jurídica concedida pela Defensoria, é possível estudar uma estratégia, como a própria defensora Camille Vieira Costa mencionou anteriormente, para pedir na Justiça a retirada do vídeo das plataformas, além de solicitar também que estas sejam responsabilizadas, por meio da indenização por danos morais coletivos. Até porque as plataformas vão se amparar sempre no artigo 19 do Marco Civil da Internet, que tem um espírito absolutista da liberdade de expressão, baseada em uma visão norte-americana.