Proteção de dados e IA – uma abordagem crítica e constitucional, a partir de uma Teoria Fundamental

Doutora na Universidade do Minho-Pt., doutora em filosofia do direito pela Univ. do Salento-Lecce-It., pós doutorado em Ciências Sociais – Universidade de Coimbra-Pt., pós doutorado em Filosofia, Artes e pensamento crítico- EGS, Saas-Fee, Suíça. Pós-doutora também na FD-USP e no TIDD-PUCSP. Pesquisadora da Faculdade de Direito da Universidade de Lisboa e do IEA-USP. Visiting Researcher da Scuola Normale Superiore, Pisa-IT.

Paola Cantarini

Vivemos na sociedade de dados, na era da 4ª revolução industrial, da indústria 4.0 ou era do silício, sociedade e economia de dados, caracterizando-se, principalmente, pela utilização da inteligência artificial (IA) em todos os setores de nossas vidas, as quais são direcionadas via controle digital, ou melhor dizendo, controle de comportamento por uma pequena parcela de pessoas que tomam a decisão de como nos comportarmos (Governance by Algorithms).
Há, pois, um forte impacto da IA, trazendo alterações sociais significativas, a partir da sua utilização crescente, relacionada à temática da governança de algoritmos e produção de decisões automatizadas, seja na esfera pública como na privada.
Cada vez mais há a produção de decisões automatizadas em vários setores sociais, criando-se perfis comportamentais, prática conhecida como profiling, podendo ser aplicada tanto a indivíduos como a grupos, a partir de uma imensa quantidade de dados pessoais. São criados perfis de publicidade direcionados a cada tipo de personalidade analisada, elaborados scores e perfis pelos sistemas de proteção ao crédito, utilizadas tais tecnologias no policiamento preditivo, bem como são realizadas análises de tendências via Big Data Analytics, a fim de serem montadas estratégias individualizadas, influenciando a opinião e atitudes públicas, além da tecnologia relacionada ao microtargeting, fundamental quando se fala em sistema eleitoral atualmente.
A temática da proteção de dados cada vez mais deverá ser analisada e compreendida em conjunto com aquela de regulação da IA – inteligência artificial, diante dos fenômenos do big data, da governamentalidade algorítmica, internet das coisas e dos serviços, machine learning e deep learning. Tais temáticas estão intrinsecamente relacionadas, como se observa, por exemplo, nos critérios a serem observados para a estruturação da IA, consoante lista produzida pela Comissão Europeia, com destaque para a proteção de dados e privacidade (European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and “Autonomous” Systems, 2018).
Mais do que nunca é fundamental a análise de tais questões por uma visão interdisciplinar e crítica, a fim de trazer contribuições teóricas e práticas para as problemáticas envolvidas, já que são raros ainda os estudos envolvendo aspectos éticos, principiológicos e uma análise interdisciplinar dos temas da inteligência artificial e da proteção de dados, sendo urgente sua promoção. Visar-se-ia trazer contribuições para o campo da ética em especial, já que, sem avanços em tal campo, capazes de traçar diretrizes fundamentais para os procedimentos dos algoritmos, a IA estará inclinada a um processo de desgaste e corrosão da confiança. Neste sentido, pretende-se ensejar contribuições para o registro, a documentação e o debate acerca das experiências de práticas éticas no campo da IA e da proteção de dados, colaborando para a divulgação e democratização do conhecimento, contribuindo para a preservação de uma arena de diálogo democrático, livre e inclusivo.
Diante do extraordinário avanço tecnológico e da inteligência artificial, em todos os setores sociais, com o aumento da intensidade de interconexões técnicas e da aceleração do tempo, produzindo diversas mudanças socioculturais e na produção de Direito, alterando os conceitos de cultura, democracia, soberania, cidadania, política, movimentos sociais, é fundamental o estudo de tais temáticas à luz da Teoria dos Direitos Fundamentais, e de uma Teoria Fundamental do Direito Digital, ora em desenvolvimento, a fim de melhor analisar os princípios jurídicos e éticos envolvidos, a correta solução dos denominados “hard cases”, quando houver colisões de direitos fundamentais, como se denota de várias situações práticas do dia-a-dia daqueles profissionais que atuam em tais áreas, propiciando maiores subsídios para, por exemplo, a correta elaboração de documentos de compliance, tais como o LIA – Avaliação do Legítimo Interesse e do DPIA – RIPD, Relatório de Impacto à Proteção de Dados, o relatório de impacto algorítmico, ou relatório de impacto em inteligência artificial (Algorithmic Impact Assessment (AIA) ou Artificial Intelligence Impact Assessment (AIIA). Nas situações concretas em que estamos diante de colisões de direitos fundamentais, torna-se essencial a compreensão de tais teorias, do processo de ponderação a ser aplicado, dos princípios da proporcionalidade e da razoabilidade, partindo-se do reconhecimento também da própria proteção de dados como um direito fundamental.
Da mesma forma, são constantes os conflitos práticos neste mesmo sentido na área da IA, como quando nos deparamos com o caso do direito de oposição de decisões automatizadas, previsto no GDPR – Regulamento Geral de Proteção de Dados, e direito de revisão, tal como encontra-se previsto na LGPD – Lei Geral de Proteção de Dados, a fim de ser possível, de outro lado, postularmos também por um direito à explicação e ao princípio da explicabilidade. Diante da revisão por outra máquina, tal como previsto no Brasil, há que se falar em um real direito de explicação e revisão?
Neste sentido, a partir do momento que deverá haver o reconhecimento da necessidade do desenvolvimento da IA, centrada no ser humano e na dignidade humana, bem como para o fortalecimento e revigoramento do espaço público, como arena democrática de diálogo e discussão, como resolver satisfatoriamente a colisão entre a proteção ao segredo industrial/comercial versus direitos fundamentais dos indivíduos afetados por tais decisões automatizadas, construídas sob a proteção da assim denominada “caixa-preta” dos algoritmos de IA?
Como superar a problemática da insuficiência de leis principiológicas, da ineficácia de princípios éticos e da possibilidade de lavagem ética? Seria suficiente a denominada autorregulação ou regulação regulada, mediante a adoção de novos procedimentos, mecanismos, com fundamento na própria tecnologia, como as Privacy Enhancing Technologies (PETs), as ferramentas do privacy by design (privacidade por concepção, desde a concepção do negócio) e do privacy by default (privacidade por valor, padrão predefinido, proteção máxima de forma automática)?
Questões que sobrepairam a espera de aportes que permitam um tratamento adequado, do ponto de vista de uma maior consideração pelas peculiaridades e potencialidades humanas, sem ilusões transhumanistas que nos impeçam de ver e viver a beleza de nossa condição simultaneamente corpórea e espiritual.

Deixe uma resposta