“Você não poderá mais segmentar seus anúncios! Eu não posso mais saber a idade a localização e o gênero da minha audiência. Tá proibido! “ Esses são alguns argumentos citados pelo influenciador digital, Daniel Penin na rede social Kwai.com, referindo ao Projeto de Lei 2630 (conhecida como o PL das Fakenews) caso ele seja aprovado.
Isso foi publicado em maio deste ano, no meio da discussão acalorada entre
Big Techs e Governo, sobre os impactos desse projeto de lei, e é claro colocou ainda mais lenha na fogueira.
Como todo profissional de e-commerce e marketing digital sabe, a segmentação de dados é a essência da publicidade online e mexer nesse modelo realmente teria um impacto econômico gigante e milhões de empresas (de todos os tamanhos) afetadas.
Passado o susto inicial, comecei a fazer a minha lição de casa que foi a de levantar o máximo de informação possível a respeito sobre o quanto isso é realmente possível de acontecer.
Depois de ler por várias vezes o projeto de lei, o post do presidente do Google, assistir o excelente podcast de 2hs do Flow entrevistando o senador Alessandro Vieira, que é o autor da Lei, além de ler todas as notícias a respeito desta lei publicadas nos dois maiores jornais do Brasil, vou dividir aqui minhas conclusões a respeito.
Por que esta lei foi criada?
O PL2630 é um projeto de lei brasileiro que visa combater a disseminação de desinformação na internet.
O motivo original de sua criação, segundo o autor o senador Alessandro Vieira, era de garantir que uma vez que empresas como Google, Meta, Telegram, etc, fossem alertada via notificação judicial, a respeito de um conteúdo danoso que está sendo impulsionado seja por patrocínio, ou por manipulação tecnológica como robôs (programações que simulam ações de pessoas), ela precisariam tomar providências.
Apesar do marco civil responsabilizar o produtor de conteúdo pela notícia que é divulgada, se este conteúdo é de alguma forma promovido, e a plataforma foi negligente depois de notificada, ela pode ser corresponsável pelos danos causados ou justificar perante a lei o motivo de não ter agido.
E atualmente isto não ocorre, o que segundo o autor não estimula as Big Techs a serem mais efetivas nesse controle.
É importante dizer que estas empresas, segundo afirma o senador Alessandro, somente seriam punidas após receberem a notificação e não tomarem as devidas providências.
Outro ponto importante é que a lei cobrará também maior transparência no sentido de cobrar os veículos a mostrarem o que está sendo feito para evitar disseminação das conhecidas fakenews.
Existe ainda um outro motivo para a existência desse PL levantado pelo senador e que não é comentado nos meios de notícia, que é o fato dela também proteger o produtor de conteúdo.
Exemplo, se os provedores de aplicativos (entenda Google, Meta e outras redes sociais e de mensageria), retirar um conteúdo que não infrinja seus termos de acordo dos usuáris e também não desrespeite a lei brasileira, eles precisarão justificar o ocorrido.
“Hoje essas empresas derrubam um conteúdo de alguém e que perante a lei está ok, e a pessoa sequer recebe uma fundamentação do por que isso foi feito” citou o sen. no podcast Flow.
Por que há tanta polêmica?
Podemos destacar dois dos principais pontos a meu ver que estão causando maior discussão entre as partes:
Dificuldade em filtrar
Como ja vimos, o principal objetivo deste Projeto é a exigência de que os provedores de aplicativo removam conteúdo considerado desinformação. Isso pode incluir conteúdo falso, enganoso ou prejudicial.
Os críticos argumentam que esse requisito pode ser usado para censurar a fala legítima e que seria difícil para estas empresas de tecnologia determinar ou tecnicamente filtrar qual conteúdo deve ser removido.
Aumentou a complexidade
A proposta inicial incorporou outras causas que não estavam originalmente no projeto, isso aumentou muito a sua complexidade e contribuiu para travar ainda mais a aprovação.
Um dos exemplos é o fato da lei exigir que as Big Techs remunerem produtores de conteúdo caso exibam trechos do material produzido por eles.
Além das dificuldades técnicas envolvidas nessa questão, definição de remuneração, entre outros fatores, esse tema por si só seria objeto de uma outra lei regulatória.
Na Austrália, houve esse mesmo pedido por parte do governo exigindo remuneração de produtores de conteúdo e depois também de muita polêmica, Governo e Google chegaram em uma solução que atendeu ambas as partes, no final de 2022.
Outro exemplo de adendo a proposta original bastante polêmico é a questão da imunidade parlamentar, que poderá ser estendida a conteúdos publicados por deputados e senadores em redes sociais e em mensagens privadas.
Esse privilégio causou grande indignação na sociedade como um todo e ajudou ainda mais a a desviar do foco inicial que foi proposto.
O que o Governo argumenta a seu favor?
O governo do seu lado, argumenta que tudo será feito por vias jurídicas, com argumentos baseados na constituição e que empresas terão que se comprometer em cumprir o que já está prescrito na lei.
Por exemplo, se um conteúdo infringir a lei por racismo, a plataforma receberá uma intimação e terá 30 dias para tomar as providências.
Ou se um anúncio leva o internauta a um conteúdo fraudulento, ou a produtos não legalizados no Brasil, da mesma forma a Big Tech terá que justificar a sua veiculação.
Outro argumento do Governo é que os filtros atuais são falhos e que as Big Techs não são transparentes quando a justiça questiona sobre o que está sendo feito para combater a veiculação destes tipos de conteúdo.
Como esse assunto está sendo tratado no mundo?
Um ponto importante a se observar é que na Europa já existe uma ampla discussão a respeito com a recente lei DSA (Digital Service Act).
A Lei de Serviços Digitais europeia é um regulamento da lei para atualizar a Diretiva de Comércio Eletrônico de 2000 em relação a conteúdo ilegal, publicidade transparente e desinformação.
A proposta do DSA mantém a regra atual segundo a qual as empresas que hospedam dados alheios não são responsáveis pelo conteúdo, a menos que saibam que ele é ilegal e, ao obter esse conhecimento, não agem para removê-lo.
Os prestadores de serviços afetados por essa nova lei terão até 1º de janeiro de 2024 para cumprir suas disposições. As rede sociais e os motores de busca terão de cumprir as suas obrigações quatro meses depois de terem sido designados como tal pela Comissão da UE.
Um exemplo interessante de embate entre Big Techs e Governo, está acontecendo na Europa no momento em que este post está sendo publicado a OpenAI empresa de inteligência artificial responsável pelo fenômeno Chat GPT, passa por uma situação similar onde a União Europeia está criando o projeto Lei de IA .
O CEO Sam Altman declarou durante um evento em Londres que, quando estabelecida a nova Lei de Inteligência Artificial (IA) da UE, a empresa poderia deixar o mercado da Europa, visto que ela não conseguira cumprir todos os requisitos do futuro regulamento;
Na semana seguinte o executivo voltou atrás e afirmou em uma rede social que não tem planos para sair e que as conversas na Europa eram produtivas.
Por que segundo as Big Techs a lei prejudicaria a segmentação de dados?
Em sua publicação o Google alega que o projeto de lei como está impede as empresas de publicidade de usar informações coletadas com o consentimento dos usuários para conectar empresas com potenciais consumidores.
Mas ao ler seguidamente o projeto de lei “de cabo a rabo”, posso afirmar que isso não é especificado em trecho nenhum do seu atual texto.
Se você ler o PL2630, verá que as maiores exigências referem se a entrega por parte das Big Techs de relatórios que mostrem o que está sendo feito para combater a desinformação, como: número de contas falsas desativadas, conteúdos patrocinados removidos, número de robôs disseminadores de conteúdo falso desativados, alcance de conteúdos considerados prejudiciais etc.
Outro item importante no post do presidente do Google Fábio Coelho, é o trecho:
“Em vez de promover transparência, o PL 2630 poderia dar aos agentes mal-intencionados um mapa completo de quais critérios usamos para reduzir informações de baixa qualidade”.
Em resposta a esse argumento o Sen. Alessandro Vieira se colocou da seguinte forma relatando um fato de quando ele ainda era delegado de crimes cibernéticos em Sergipe:
“O Face (referindo a Meta) trazia para a gente para gente números astronômicos tipo: derrubamos mais de 1 milhão de perfis. Tá mas qual a fundamentação para derrubar isso? É esse nível de transparência que a gente quer ter, para consumo acadêmico, para entender como funciona e sugerir mudanças. Mas você não pode arriscar o negócio dos caras, eu entendo que eles não podem dar a “fórmula da Coca-cola”, isso eu não posso fazer, mas garantir que a empresa atende os requisitos e está tomando as providências necessárias, isso é válido”
Conclusão
O que pude constatar nesta pesquisa é que apesar da reivindicação do Governo ser pertinente a respeito de exigir maior comprometimento das Big Techs no combate a Fakenews, a lei ainda carece de maior clareza.
E para piorar virou uma “colcha de retalhos” que mistura assuntos complexos que acabaram por deixá-la muito difícil de ser aprovada.
Arriscaria dizer que a probabilidade de não ter mais a segmentação de anúncio é praticamente nula.
Não é mais possível tanto para o Brasil como para outros países, não ter uma publicidade online eficiente como se tem hoje, e certamente se chegará a um meio termo entre as partes.
Ainda que o Projeto de Lei seja aprovado como está, ele volta ao senado que pode rejeitar as modificações e submeter novamente o projeto original ou alterado (mais compacto e objetivo por exemplo).
É natural que as Big Techs exijam maior clareza no texto da lei por parte dos nosso governantes, para que depois se ajustarem tecnicamente.
Assim como foi feito com o Google Analytics que para se ajustar a Lei de Proteção de Dados teve que ser reinventado do zero em sua 4° versão, por exemplo.
O que não podemos agora é entrar em pânico e disseminar interpretações da PL que estão muito longe de serem concretizadas (como fazem as Fakenews).