No dia 23 de fevereiro de 2023 em um discurso proferido na Unesco, o ministro do Supremo Tribunal Federal Luís Roberto Barroso defendeu de forma tríade a regulação da internet através de uma flexibilização do marco civil da internet, legislação brasileira já aprovada e em vigor.
Na sua ideia, não basta responsabilizar as plataformas de conteúdo promovidos por terceiros se não cumprirem decisões judiciais (o que já é previsto no marco civil da internet): as plataformas deveriam agir por si mesmas para coibir abusos, nos casos de flagrante descumprimento as regras definidas e acordadas.
Num primeiro momento a ideia parece justa, já que elementos como pornografia infantil, bullying, entre outros precisam ser defenestrados e proibidos.
Entretanto, o que preocupa é justamente em que termos teremos esta regulação.
Mesmo que no discurso o ministro fora enfático em usar a ideia de Estado mínimo como partícipe do processo regulatório, sabemos que na política brasileira esta realidade pode ser bem diversa, frente a tantos interesses difusos envolvidos.
Igualmente preocupante a questão de tudo ser tão simples de se publicar, sem nenhum tipo de filtro e a eventual retirada por meio judicial levar um tempo que causa danos normalmente irreparáveis dentro da situação oposta, a exemplo de um vídeo que se torna viral com um assunto determinado e depois se descobre ser falso ou um deepfake. O vídeo falso/deepfake alcança uma proporção muito maior do que a reparação/desmentido do vídeo.
Para quem já teve conteúdo removido pelas plataformas digitais, sabe muito bem que não há argumentos, conversas ou transparência. Simplesmente você é notificado que o conteúdo foi excluído e remete a um site para contestar esta exclusão. Então em menos de 5 minutos vem uma resposta dizendo que não foi autorizada a manutenção do conteúdo e pronto.
Já passei por esta situação, onde um treinamento de tecnologia em que eu leciono foi excluído de uma plataforma. Argumentei que se tratava de treinamento, sem nenhum tipo de propaganda, sem nenhum tipo de palavra fora de contexto ou algo assim, e em menos de 5 minutos recebi a negativa de manutenção do conteúdo e pronto, sem mais possibilidades de argumentar. Fui derrotado pelo algoritmo que não analisa, apenas está lá para dizer não.
Situações práticas como esta, aliado a uma polaridade que vivemos mundialmente, além de extremismos que percebemos todos os dias levam a crer que regular/regulamentar pode ser um caminho sem volta contra a liberdade.
Vivemos uma era em que automatizar, usar inteligência artificial é o bom, correto e viva a tecnologia. Será mesmo? Será que decisões automatizadas em todas as situações funcionam (diga-se na vida profana e no judiciário, inclusive)?
Questionável, ao meu sentir.
Podemos e devemos automatizar fluxos, procedimentos e questões meramente – deixando claro o meramente – repetitivos. O que não se aplica a vida de cada um na sua individualidade e muito menos a alguns tipos de processos judiciais.
Leia na íntegra a fala do ministro Barroso na Unesco e tire suas conclusões.
Este debate é essencial para o futuro que queremos construir hoje!
“Visão do futuro
I. Introdução
1. Agradeço muito o convite. É um prazer e uma honra estar aqui.
II. Próximos passos
1. Penso que esta conferência consolidou algum consenso:
a) Desinformação, discurso de ódio, assassinato de reputações e teorias da conspiração, viabilizados pela Internet e mídia social, se tornaram sérias ameaças à democracia e aos direitos humanos.
b) As incorretamente chamadas “fake news” têm servido como uma ferramenta decisiva para o extremismo, reforçando a polarização, promovendo a intolerância e, enfim, a violência.
Por essa razão, precisamos renovar a reforçar a ideia da democracia militante, bem como as preocupações de não ser tolerante com os intolerantes.
c) Já se foi o tempo em que a crença dominante era a de que a internet deveria ser “aberta, gratuita e não-regulamentada”.
2. A internet precisa ser regulamentada: (i) por razões econômicas, para permitir a tributação justa, pela lei antitruste e a proteção do direito autoral, por exemplo; (ii) para proteger a privacidade e evitar o uso inapropriado de dados que as plataformas digitais coletam de todos os seus usuários; e (iii) para combater comportamento inautêntico coordenado, bem como o conteúdo ilícito e a desinformação.
Comportamento inautêntico coordenado significa o uso de meios automatizados – bots, perfis falsos e agentes provocadores – para espalhar desinformação.
3. Uma vez feito o diagnóstico, é preciso agir. O primeiro passo é conscientizar governos, plataformas e a sociedade civil sobre a urgência de tais medidas. E tentar ajudá-los no que têm de fazer.
III. Como regulamentar
1. A regulamentação deve ser feita em três níveis diferentes: a) Regulamentação governamental, com uma estrutura geral que contenha os princípios e as regras básicas; b) autorregulamentação, com termos claros de uso e padrões comunitários, para serem executados com transparência, devido processo, justeza e auditoria; c) autorregulamentação regulada, transferindo às plataformas uma boa parcela de responsabilidade pela execução da regulamentação aplicável, minimizando a interferência do governo.
As grandes plataformas devem ter um organismo de controle interno (semelhante ao Conselho de Supervisão do Facebook). E deve haver um organismo independente para monitoramento e controle externo, composto por representantes do governo (sempre uma minoria), plataformas, sociedade civil e meio acadêmico.
2. Responsabilização da plataforma por conteúdo de terceiros deve ser razoável e proporcional. Penso que as seguintes regras devem ser consideradas:
a) Em caso de claro comportamento criminoso, tal como pornografia infantil, terrorismo e incitação a crimes, as plataformas devem ter o dever de diligência, para usar todos os meios possíveis para identificar e remover tal conteúdo, independentemente de provocação;
b) Em casos de clara violação de direitos de terceiros, tais como compartilhamento de fotos íntimas sem autorização e violação de direitos autorais, entre outros, as plataformas devem remover o conteúdo após serem notificadas pela parte interessada;
c) Entretanto, em casos de dúvida, em áreas de penumbra em que pode haver dúvida razoável, a remoção deve ocorrer após a primeira ordem judicial.
IV. Educação da mídia
1. Além da regulamentação, autorregulamentação e controles internos e externos, manter um ambiente saudável na esfera pública representada pelas plataformas digitais depende da educação da mídia e da conscientização das pessoas. A circulação de notícias falsas é frequentemente ocasionada de maneira não intencional por usuários das plataformas que reproduzem mensagens recebidas inadvertidamente.
2. Algumas pessoas subestimam a educação da mídia, mas penso que, junto com a necessária regulamentação, ela é indispensável. Na minha juventude, nos anos 70, víamos placas nas ruas e estradas que diziam “Proibido jogar lixo”. Naquela época, as pessoas eram educadas para não jogar lixo nas ruas e estradas. Hoje em dia, não vemos mais essas placas e muitas pessoas não jogam lixo. Jogar lixo é um comportamento residual.
Conclusão
Em sua apresentação ontem, Maria Ressa disse corretamente que as três palavras-chave nesse debate são fatos, verdade e confiança. É sobre isso que falamos. No fundo, estamos enfrentando uma guerra da verdade contra a mentira, da confiança contra o descrédito, do bem contra o mal. O maior problema é que o mal algumas vezes se disfarça de bem – pretendendo ser liberdade de expressão – e o bem irá correr o risco de ser pervertido, se ele se converter em arbitrariedade. O equilíbrio apropriado aqui é vital, de forma que a necessária proteção da liberdade de expressão contra os males da desinformação e do ódio não abra as portas para a censura.” (fonte da íntegra do discurso retirada do site: https://www.conjur.com.br/2023-fev-25/eua-barroso-defende-regulamentacao-internet-unesco)
Sou Gustavo Rocha
Professor da Pós Graduação, coordenador de grupos de estudos em especial de gestão de escritórios, membro de diversas comissões na OAB no RS e SP.