O Supremo Tribunal Federal (STF) suspendeu nesta quarta-feira (18) o julgamento sobre a responsabilização das plataformas digitais por publicações de usuários, após o ministro André Mendonça pedir mais tempo para análise do tema. A sessão já havia gerado debates significativos com a apresentação do voto divergente do presidente do STF, Luís Roberto Barroso, em relação aos ministros Dias Toffoli e Luiz Fux. O caso não tem data definida para ser retomado, e o prazo regimental do pedido de vista é de até 90 dias, excluindo o período de recesso do Judiciário.

O julgamento gira em torno do artigo 19 do Marco Civil da Internet, que estabelece que plataformas não podem ser responsabilizadas por conteúdos publicados por usuários, salvo em casos de descumprimento de ordens judiciais. Dias Toffoli e Luiz Fux defendem que o artigo é insuficiente para proteger os direitos de usuários diante de crimes digitais, como cyberbullying, discurso de ódio e fake news, enquanto Barroso propõe uma abordagem mais cautelosa e alinhada com a liberdade de expressão.

Toffoli, primeiro a votar, argumentou que o Marco Civil cria uma “imunidade” para as plataformas, deixando os usuários vulneráveis em um contexto de violência digital crescente. Ele propôs que as empresas sejam responsabilizadas a partir do momento em que forem notificadas extrajudicialmente pelos usuários, sem a necessidade de decisões judiciais para remoção de conteúdo. Luiz Fux, por sua vez, complementou a posição ao sugerir que as plataformas tenham a obrigação de remover conteúdos imediatamente após a notificação e, caso discordem, busquem autorização judicial para restaurar o conteúdo.

Em contraste, Barroso defende que as plataformas só devem ser punidas em casos de “falhas sistêmicas” na moderação de conteúdos ilícitos. Ele propõe um “dever de cuidado”, em que as big techs seriam obrigadas a implementar mecanismos para mitigar riscos globais, mas sem penalizações por falhas em casos individuais. Além disso, Barroso sugeriu que crimes contra a honra, como injúria, calúnia e difamação, só devem ser removidos com decisão judicial, para evitar riscos de censura.

O ministro Barroso apresentou um conjunto de diretrizes que, em sua visão, equilibram a necessidade de moderação de conteúdos ilícitos com a preservação da liberdade de expressão:

– Notificação privada e remoção como regra geral: Publicações criminosas devem ser retiradas após notificação extrajudicial, mas crimes contra a honra exigem decisão judicial.

– Responsabilidade por impulsionamento pago: As plataformas são responsáveis por publicações ilícitas veiculadas em anúncios pagos, independente de notificação.

– Dever de cuidado: As plataformas devem agir proativamente para mitigar riscos às democracias e aos direitos individuais, sendo penalizadas apenas em casos de falhas sistêmicas.

– Remoção de conteúdos especialmente graves: Publicações relacionadas a crimes como pornografia infantil, incentivo ao terrorismo, tráfico de pessoas e atos contra o Estado Democrático de Direito devem ser excluídas sem necessidade de notificação ou decisão judicial.

– Órgão regulador independente: Barroso defendeu a criação de um órgão regulador autônomo para fiscalizar e aplicar sanções às plataformas, inspirado no Comitê Gestor da Internet.

– Relatórios de transparência: As plataformas devem publicar relatórios anuais detalhados sobre suas ações de moderação.

Barroso também fez um apelo ao Congresso Nacional para regulamentar o tema e criar um regime jurídico que contemple essas diretrizes. “Nós só estamos atuando porque ainda não há lei e, portanto, precisamos criar um regime jurídico para esse tema”, afirmou.

Enquanto o STF busca preencher o vácuo legislativo sobre a responsabilidade das plataformas, Barroso e outros ministros destacaram a necessidade de que o Congresso Nacional elabore uma regulamentação abrangente. Para Barroso, o órgão regulador ideal não deve ser estatal, mas independente, com representantes do governo, da sociedade civil, das empresas e do Congresso.

Dias Toffoli sugeriu que o Conselho Nacional de Justiça (CNJ), órgão que administra o Judiciário, assuma temporariamente a fiscalização das big techs para dar cumprimento às decisões do STF. Barroso, porém, defendeu a criação de um novo órgão fora da estrutura estatal.

No Congresso, a falta de consenso sobre o tema preocupa as empresas de tecnologia, que temem que decisões judiciais criem um modelo mais restritivo do que o previsto em discussões legislativas. As big techs vinham acompanhando o debate e manifestaram receios sobre o impacto das possíveis decisões do STF.

Dias Toffoli e Luiz Fux insistem na necessidade de maior responsabilização das plataformas. Ambos defendem que as empresas monitorem ativamente conteúdos e removam publicações ilícitas, como discurso de ódio, racismo, pedofilia e apologia ao golpe de Estado. Para Fux, as plataformas devem ser obrigadas a agir imediatamente e buscar autorização judicial apenas se discordarem da remoção.

Barroso, por outro lado, adverte que uma regulamentação excessiva pode levar à censura e prejudicar a liberdade de expressão. Ele ressaltou que as plataformas devem ser avaliadas pela eficiência de seus esforços para evitar conteúdos ilícitos, e não por falhas pontuais. “O esforço de impedir tem que ser eficiente, mesmo que não alcance 100% de eficácia”, argumentou.

Foto: Antônio Augusto/STF

 


Avatar

administrator