Stf estabelece responsabilidade das big techs por conteúdos alheios
O Supremo Tribunal Federal (STF) decidiu, em votação realizada na tarde de quinta-feira, 26, que as grandes empresas de tecnologia, conhecidas como big techs, poderão ser responsabilizadas civilmente por conteúdos ilícitos publicados por terceiros em suas plataformas. A decisão foi aprovada por 8 votos a 3 e avalia que o Artigo 19 do Marco Civil da Internet, que atualmente regulamenta a responsabilidade das empresas nessa área, é parcialmente inconstitucional.
CONTINUA APÓS A PUBLICIDADE
O julgamento durou mais de cinco horas, com os ministros se reunindo para discutir questões-chave sobre as responsabilidades das plataformas digitais. O presidente do STF, Luís Roberto Barroso, esclareceu que a Corte não está criando uma nova legislação, mas sim estabelecendo diretrizes que precisam ser seguidas enquanto o Legislativo não define uma nova norma sobre o assunto.
O Artigo 19, que está em vigor desde 2014, limitava a responsabilização das plataformas apenas a situações em que uma ordem judicial específica para remoção de conteúdo era desrespeitada. Com a nova decisão, essa proteção não é mais válida. A nova interpretação amplia a responsabilidade das big techs, abrangendo também casos de anúncios pagos e postagens feitas por sistemas automatizados. Além disso, fica explícito o dever das empresas em monitorar e remover conteúdos relacionados a crimes graves, como terrorismo e violência sexual, sendo que a falta de medidas adequadas poderá acarretar em suas responsabilizações.
CONTINUA APÓS A PUBLICIDADE
No contexto da decisão, os ministros analisaram dois casos específicos envolvendo recursos extraordinários, com um deles relacionado ao Facebook, que teve seu pedido negado, e outro ao Google Brasil, que obteve sucesso ao reverter condenação anterior. O Google expressou preocupações sobre como a nova decisão pode afetar a liberdade de expressão e a economia digital, afirmando que está avaliando os impactos disso em seus serviços.
Os ministros do STF se dividiram em suas opiniões. Dias Toffoli, relator de um dos casos, argumentou que o modelo atual oferece proteção excessiva às plataformas e propôs que essas deveriam remover conteúdos que representem crimes quando notificados, mesmo sem ordem judicial. Luiz Fux, relator de outro recurso, defendeu a remoção imediata de conteúdos ofensivos ogander o mesmo contexto. Zanin destacou a importância de responsabilizar as big techs por conteúdos ilícitos mesmo sem notificação prévia, enquanto outros, como Edson Fachin e Nunes Marques, defenderam a manutenção da necessidade de ordens judiciais para a responsabilização das empresas.
CONTINUA APÓS A PUBLICIDADE
A decisão do STF também se posiciona sobre a necessidade de uma legislação mais clara e robusta sobre o tema, indicando um apelo ao Congresso Nacional para que crie normas que corrijam as deficiências do sistema atual, visando proteger direitos fundamentais e garantir maior responsabilidade das plataformas digitais.
CONTINUA APÓS A PUBLICIDADE