Você está aqui:

Evento no TRT-MG demonstra preocupação com democracia na era dos megadados

publicado: 03/04/2017 às 17h27 | modificado: 06/04/2017 às 16h53

O auditório do 8º andar do edifício-sede do TRT-MG, em Belo Horizonte, deu lugar, na última sexta-feira, 31 de março, à Primeira Oficina do Grupo de Estudos sobre Justiça e Direito Eletrônicos - GEDEL: Democracia e Direito no contexto do Big Data, da Inteligência Artificial e da Linguagem Maquinal. Coordenado pelo desembargador José Eduardo de Resende Chaves Júnior, o evento teve transmissão simultânea pela internet, com participação de magistrados e servidores, sendo também aberto ao público externo.

As atividades foram conduzidas pelos professores da UFMG Fabrício Bertini Pasquot Polido, Francisco Carlos Marinho e Virgílio Carlo de Menezes Vasconcelos. Participou também, por videoconferência, o Professor Adjunto do Instituto Politécnico de Beja, em Portugal, Manuel Davi Masseno.

A oficina foi uma realização conjunta do GEDEL (Grupo de Estudos sobre Justiça e Direito Eletrônicos), em parceria com a Escola Judicial do TRT3, PRUNART-UFMG (Programa de Apoio às Relações de Trabalho e à Administração da Justiça), IRIS (Instituto de Referência em Internet e Sociedade), GNET/UFMG (Grupo de Estudos Internacionais de Propriedade Intelectual, Internet e Inovação), OAB (Ordem dos Advogados do Brasil) e AMAT (Associação Mineira dos Advogados Trabalhistas).

Administração pública e big data

Direto de Helsinque, capital da Finlândia, o professor Manuel Masseno falou sobre Dados Administrativos e Big Data. Para ele, é preciso uma lei geral de proteção de dados, o que ainda não existe no Brasil.

Primeiramente, ele conceituou big data, ou megadados, como sendo “conjuntos de dados digitais gigantescos detidos por empresas, governos e outras organizações de grandes dimensões, que são depois extensivamente analisados (daí o nome ‘analítica’) com recurso a algoritmos informáticos". Isso permite às organizações maximizarem a sua eficiência nos processos e alocação de recursos e possibilita detectar micro tendências (por exemplo, a tendência de cada eleitor), viabilizando intervenções precoces e de alta eficácia, por serem direcionadas a cada pequeno grupo específico. Por outro lado, possibilita um controle absoluto dos indivíduos, com dados coletados e organizados em tempo real e guardados por tempo indeterminado. E mais: permite a criação de perfis detalhados para cada pessoa, que depois serão usados para prever e avaliar os respectivos comportamentos

Focando no uso desse recurso pela Administração Pública, o Professor Masseno ponderou que esta deve gerenciar os dados com base nos seus fins próprios. Ou seja, não poderão ser tratados dados que não sejam indispensáveis à efetivação desses fins. Para tanto, é preciso leis e políticas para impedir ou dificultar o estabelecimento de perfis e decisões tomadas com base nesses. “Sobretudo, pelo risco de erros nas inferências e pelo potencial de discriminação de minorias, ou dos mais afastados do Poder Político dominante”, pontuou o palestrante.

Quanto à licitude no tratamento de dados, quando se trata de fins públicos e das bases de dados obrigatórias, como os registos, não há necessidade de consentimento expresso. “Em contrapartida, todos os tratamentos de dados, mesmo os não obtidos dos administrados, como os resultantes da recolha de informações em fontes abertas, só são lícitos com base em atribuições legais expressas de competências e com estrito respeito pelos Princípios da Proporcionalidade e da Boa-Fé”.

O Professor manifestou sua preocupação com a proteção das pessoas quanto ao tratamento e livre circulação de dados pessoais, a exemplo do que adotou a Europa (Regulamento 2016/679, do Parlamento Europeu), controle esse que, no Brasil, ainda está longe de se tornar realidade. “O cerne da preocupação é o risco que a democracia corre pela má gestão ou não proteção dos mega dados”, concluiu, acrescentando que é preciso regulamentar isso, numa operação que ele chamou de“intervenção cirúrgica de grande porte”.

Big data x realidade dos fatos sociais

Na sequência, falou Fabrício Polido, professor de Direito Internacional da Faculdade de Direito da UFMG. Ele explicou que, na Justiça do Trabalho, a grande preocupação reside em como essas tecnologias afetam o direito e o processo do trabalho, já que o big data ocupa um grande espaço no mundo atual afetando, de forma rápida e crucial, a forma como vivemos em sociedade. Para ele, cabe aos professores da área debater os efeitos dessa revolução silenciosa que o big data provoca, buscando descobrir mecanismos que o direito pode oferecer para consolidar expectativas e preservar direitos.

De fato, conforme enfatizou, a tecnologia afeta a realidade social de forma sistêmica. Redes e coligações dos dados colidem com a realidade social e privada que o direito regula. E não escapam desse choque as ideias tradicionais do mundo do trabalho. Ele exemplificou citando o serviço oferecido pelo Uber, que reconceptualiza as noções de trabalho que conhecemos hoje: “É a tecnologia remodelando a forma como conhecemos o trabalho”, pontuou. E, em seguida, lançou um questionamento: “De que forma os algorítimos (ou bytes) interferem no estado de direito?”

Para o Professor Fabrício, a forma de democracia na era do big data tem sido remodelada. E para se chegar a esse novo modelo, é preciso rediscutir o direito público e o privado, levando em conta a opinião pública internacional em relação aos desdobramentos do big data. Isso implica “tirar esse conceito da caixa preta” do mundo da informática para o mundo da realidade dos fatos sociais, para que o fenômeno seja compreendido pela sociedade. “Falar de big data é pensar esse problema criticamente para entender essa revolução aparentemente silenciosa, neutra e inofensiva, mas deliberadamente tendenciosa e comprometida com objetivos empresariais e governamentais, com a utilização de dados pessoais dos seus cidadãos e clientes”. Segundo ponderou, é preciso que se criem condições mínimas para o manejo do big data dentro das estruturas do estado democrático de direito, com respeito aos direitos fundamentais e ao devido processo legal.

No Direito do Trabalho, isso já começa a se refletir na fragmentação e erosão do contato entre empregado e empregador. “Só uma teoria crítica do direito permite uma compreensão dessa realidade, que a dogmática formalista e tecnicista já não dão mais conta de resolver”, conclui, citando casos de decisões judiciais que recorreram a métodos subsuntivos do direito para lidar com fatos relativos à era digital.

O palestrante finalizou dizendo que urge a criação de uma política de preservação da privacidade e proteção de dados pessoais, nesse novo jogo democrático em que estão, de um lado, as liberdades e garantias individuais, e do outro, o regime de proteção de dados, levando em conta valores antagônicos como a privacidade/intimidade e a publicidade e liberdade de expressão. Mas ele alerta para a armadilha do debate antagônico: “Há que se compreender como a liberdade de expressão é uma derivação da autonomia”, finaliza, deixando no ar a provocação.

Debate interdisciplinar

Como a oficina propõe uma visão interdisciplinar do tema, foram convidados para o debate pesquisadores de outras áreas, sempre no esforço de refletir sobre como o problema repercute no campo do direito e da democracia.

O professor da Escola de Belas Artes da UFMG Francisco Marinho, que trabalha com captura de dados para estudar a estrutura mental e a percepção sensorial do sujeito, não percebidos pelo racional, falou sobre o papel do homem, o papel do software e os pontos perigosos para a democracia advindos dessa interação. A principal preocupação, nessa seara, é a visível alteração de comportamentos, influenciados pelas redes sociais.

Ele frisou que o big date só faz crescer em proporções assustadoras. No YouTube, por exemplo, há dois anos eram produzidas 48 horas por minuto de vídeos a cada dia. Agora já são 72 horas por minuto. “Ou seja, bilhões de megabytes são gerados por dia. Para saber como usar isso é preciso ter ferramentas mais analíticas, profundas, para poder decodificar e entender todo o universo de dados que elas geram”.

O palestrante citou ainda um estudo realizado pelo Facebook, em 2012, com utilização dos perfis de 700 mil usuários. O objetivo era pesquisar as possibilidades de tratar os estados mentais das pessoas. “Esses usuários, sem saber, foram cobaias de uma pesquisa psicológica”, revelou. Para dar uma dimensão da importância disso, o professor revelou que o departamento de psicologia dos fabricantes de games é maior que o departamento de designers e programadores desses mesmos jogos. Ele enfatizou a importância do estudo da psiquê para a criação e manutenção de estruturas de poder. “Vejam a questão do uso político das redes sociais, em voga no Brasil, nas quais as pessoas são manipuladas, sendo colocadas em estados alterados de consciência que, por sua vez, vão determinar as opiniões que vão assumir e reproduzir na rede”.

Por fim, ele coloca a questão crucial: “Como conciliar direito, big data e inteligência artificial? O que está no meio disso tudo? Qual é a cola para juntar isso? Será que esse tipo de linguagem é adequada pra definir democracia? Afinal, são diversos os agentes interconectados, com diferentes intensidades, num sistema dinâmico, complexo, adaptativo. Que código poderia definir esse modelo?”

Ele fala ainda da inteligência artificial, num mundo de “pós memórias e pós verdades”. E provoca: “Já que virei banco de dados, minhas memórias podem ser projetadas, construídas e engenhadas... E essa identidade vai ser preservada até o final dos tempos. Mas não são imutáveis, já que as empresas podem modificá-las, governos podem alterar os meus dados etc. E, no futuro, eu vou ser julgado pela história por algo que não sou. Por uma projeção, um holograma psicodélico construído por pessoas ligadas a grandes corporações e organizações”.

Ele explica que os códigos podem ser usados para esclarecer ou para obscurecer, para induzir comportamentos, influenciar, mudar crenças, exercer poder. Isso se chama design de comportamento: acessar a psique das pessoas e fazer com que elas pensem de maneira diferente. “Passamos a ter um perfil psicológico diferente, ensina. O ódio que impera na rede hoje é fruto do uso dessa tecnologia perversa por quem quer dominar e exercer o poder”.

Exemplo disso é a indução das preferências feitas pelos algorítimos da Netflix, como lembrou o participante on line, Newton Fleury. Mas, como mudar isso, como construir um contrato social a partir de linguagens, de códigos complexos, que as pessoas não conseguem entender? “O software está com todas as camadas de leitura – desde o que aparece na tela até os códigos ocultos do sistema. E o oculto tem muito mais poder do que o que está visível. Esse oculto tem o poder de persuasão e de mudança, de alterar crenças, humores, personalidade... Poder até de mudar de rumos da sociedade”.

Aparente sutileza da “revolução silenciosa”

Em seguida, falou o professor Virgílio Vasconcelos, também da Escola de Belas Artes da UFMG. Ele considera muito preocupante a já falada “aparente revolução silenciosa”. Para ele, essa aparente sutileza traz riscos que não são visíveis. “Isto porque, em vez de eu proferir uma ideia que pode beneficiar ou prejudicar uma pessoa, eu passo isso para a máquina, que fará esse papel no meu lugar”, alerta, lembrando que o chamado “cidadão 2.0” é formado pelo ambiente de rede, mas também exerce influência direta sobre ele.

Fruto de uma construção ideológica, conjunto de ideias e pensamentos, o big data gera uma assimetria de informações, muito perigosa porque causa desequilíbrio no mercado e na sociedade. “Nunca antes tivemos uma produção de dados tão volumosa. O volume de dados produzidos dobra a cada dois anos”, informou.

Preocupado com a forma de regular esse tráfego de informações, ele citou, como um bom exemplo a se seguir, uma lei americana, da era Obama (revogada na era Trump), que proibia provedores de vender histórico de navegação do cliente sem permissão. O Google, por exemplo, vende aos anunciantes as nossas preferências registradas no histórico de navegação.

Parte dessas informações são tratadas em blocos e anonimizadas. Por exemplo, quando agrupadas em percentuais ou em número de consumidores que acessaram determinada página. Não há aí informação individualizada. Mas até nesses casos é preciso atenção e cuidado para não gerar margem ou pretextos para tratamentos discriminatórios. Como exemplo, ele citou o banco de dados de reconhecimento facial do FBI, que foi construído com dados de não criminosos, encontrados em documentos como passaportes. Se esse programa tiver apenas 15% de margem de erro, pode ser considerado um sucesso, um grande avanço. Mas em termos de massa, isso implica um número monumental de pessoas que podem vir a ser vítimas de um erro, o qual sequer será admitido, já que o dado foi gerado com base na imparcialidade da máquina: dados estatísticos digitalmente calculados. Isso abre uma larga e perigosa margem para discriminação: “Quando se classifica algum dado com base no CEP de moradia, a máquina pode gerar um dado discriminatório, como por exemplo: 75% dos moradores de tal zona tem tendências ao crime. Daí que se você mora lá, já está marcado por esse dado que a máquina, supostamente isenta, gerou”, pondera.

Ao encerrar o evento, o Desembargador José Eduardo Chaves observou: “Não podemos nos fechar no direito. Devemos ter a preocupação de aplicar o direito a todas essas questões, mas, antes, é preciso compreender o mundo fora do Direito.”

Por fim, convidou todos a participarem da pesquisa sobre o tema, ainda em sua fase inicial e com muito a caminhar e avançar. E, para tanto, deixou já marcado o próximo encontro: o novo evento da oficina deverá acontecer em 7 de julho, no 10º andar do Edifício-sede do TRT-MG. (Margarida Lages)

Visualizações: