Professor Titular do Centro de Ciências Jurídicas e Políticas da Universidade Federal do Estado do Rio de Janeiro (UNIRIO). Professor Permanente do Programa de Pós-Graduação em Direito da Pontifícia Universidade Católica de São Paulo (PUC-SP). Livre Docente em Filosofia do Direito pela Universidade Federal do Ceará (UFC). Doutor em Ciência Jurídica pela Universidade de Bielefeld (Alemanha). Doutor e Pós-Doutor em Filosofia pelo Instituto de Filosofia e Ciências Sociais da Universidade Federal do Rio de Janeiro (UFRJ). Doutor em Comunicação e Semiótica (PUC-SP). Doutor em Psicologia Social/Política (PUC-SP)
Willis Santiago Guerra Filho
A podução de qualidade no gênero da ficção científica, seja literária no sentido mais amplo, para incluir, por exemplo, as histórias em quadrinhos, seja cinematográfica, fornece material que consideramos de suma importância para nos auxiliar a reflexão e, de modo mais geral, a elaboração sobre temas de fundamental significado, nas mais diversas áreas do conhecimento, aí incluída aquelas do direito e da ética, por exemplo. Tal abordagem seria perfeitamente abrangida no que temos proposto nos termos de uma teoria poética do direito – Willis Santiago Guerra Filho; Paola Cantarini. Teoria Poética do Direito, Rio de Janeiro: Lumen Juris, 2016. E neste gênero fica evidenciado talvez mais do que em qualquer outro aquilo que se pode caracterizar como a “função onírica” de toda ficção, aí incluído o próprio direito, que entendemos como uma ficção coletiva, assim como a ciência, tanto a do direito, em cuja possibilidade venho me dedicando a demonstrar há quatro décadas, como também a ciência em geral – esse é o tema do meu doutoramento em filosofia, O Conhecimento Imaginário do Direito, Rio de Janeiro: IFCS-UFRJ, 2011. No caso das artes, tal função corresponderia muito bem àquela que os sonhos desempenham em nosso aparato psíquico, no sentido de nos preparar para possíveis ocorrências problemáticas, a serem enfrentadas na vida desperta, figurando possibilidades nela contidas. A respeito, vale muito a leitura de Sidarta Ribeiro. O oráculo da noite: a história e a ciência do sonho, São Paulo: Companhia das Letras, 2019.
Neste contexto, vale lembrar que é preciso pensar esta situação em conexão com nossa condição fundamental angustiante de seres que, por nos sabermos finitos, esforçamo-nos para sobreviver, como todos os que meramente vivem, mas de uma maneira que se projeta no tempo, em imagens capazes de nos conceder um modo de preservação, donde indicar Esther Díaz que “as distintas formas de representação, desde os desenhos rupestres à fotografia e o cinema digital, procuram preservar imagens de seres, de momentos, de gestos. A ciência, a partir de suas distintas especialidades, aspira a conservar ou acrescentar o conhecimento, a riqueza, a saúde, a beleza, a energia, a vida” – “La ciencia después de la ciencia”, in: Id. (ed.), La Posciencia. El conocimiento científico en las postrimerías de la modernidad, Buenos Aíres: Biblos, 2000, p. 386. E aí cabe fazer uma pergunta bastante incômoda, que bem caracteriza o novo estado de incerteza em que nos encontramos. Com Jean Baudrillard, poderíamos fazê-la, nos termos carregados de dramaticidade que este instigante pensador imprimiu, quando nos alerta que estaríamos prestes a cometer o que qualificou como “crime perfeito”: matar a morte. Seria o que estamos em vias de realizar, este crime máximo e último? Isso porque “o crime perfeito é o de uma realização incondicional do mundo pela atualização de todos os dados, pela transformação de todos os nossos atos, de todos os acontecimentos em informação pura – em resumo: a solução final, a resolução antecipada do mundo por clonagem da realidade e extermínio do real pelo seu duplo” – O crime perfeito, trad.: Silvina Rodrigues Lopes, Lisboa: Relógio D’Água, 1996, p. 49. Projetos e movimentos, significativamente designados em língua inglesa, como os do big data e do quantified self, demonstram bem quão avançados já estamos nesta via.
Daí a necessidade de se buscar detectar singularidades e, também, produzi-las, a fim de resistirmos aos simulacros de realidade e acontecimentos reproduzidos em “tempo real”.
Estudos estão atualmente sendo desenvolvidos para permitir que máquinas aprendam a decompor bayesianamente fenômenos biológicos em componentes essenciais, para automaticamente interpretá-los. Assim, não precisaremos pensar nos pequenos detalhes estatísticos dos experimentos: nós mais que tudo filosofaremos sobre eles, exerceremos nossa capacidade imaginativa, onírica, em estado de vigília, enquanto a ciência será feita matematicamente (ou seja, literalmente, por cálculos antecipatórios) nas máquinas pensantes vislumbradas por Turing, no gesto fundador da chamada, posteriormente, Inteligência Artificial (IA), pré-requisito básico para as máquinas espirituais a que se referiu, na virada do século (e do milênio), visionariamente, Ray Kurzweil, pesquisador do M.I.T.: tal ocorrerá uma vez atingida a singularidade a que se refere já na “Introdução” deste seu livro, The Age of Spiritual Machines, ideia que desenvolve em obra e filme posteriores. Aí, então, quiçá, nós seremos o programa, feito pelas máquinas que descendem daquelas que foram programadas por designers, até que conseguiram cometer mais um “crime perfeito”, no sentido de Baudrillard, ao programarem máquinas para substituírem com incomensurável vantagem seus programadores, tornando-se autopoiéticas, como a vida, e daí quem sabe entrem em competição conosco, tal como soe acontecer na natureza – então, após a “singularidade”, ao contrário do que supõem seus entusiastas, do que resultaria seria, mais uma vez, algo catastrófico, como a bomba atômica, sendo que desta vez os atingidos pela catástrofe seriam os integrantes da humanidade como um todo, a exemplo da pandemia que no momento nos assola. Vale lembrar a possibilidade, estatisticamente calculada por equipe de pesquisadores da Suécia, como sendo algo em torno de 10%, de vir a ocorrer uma destruição da humanidade por um desenvolvimento inesperado da inteligência artificial, relatada em reportagem do jornal Folha de São Paulo, de 17/03/2015, onde vem recordado vaticínio do conceituado físico Stephen Hawkings, no sentido de que “o desenvolvimento de uma inteligência artificial pode significar o fim da raça humana” – cf. http://www1.folha.uol.com.br/tec/2015/03/1603832-inteligencia-artificial-e-mais-perigosa-que-bomba-atomica-diz-estudo.shtml. E não é de uma singularidade o que estamos presenciando e vivendo, os que estamos conseguindo escapar dessa pandemia? Singularidade negativa, claro, não aquela positiva, aventada por Kurzweil.
Escapar, encontrar uma passagem, equivaleria ao ocorrido quando os primeiros mamíferos sobreviveram às situações iniciais tão adversas quando de seu aparecimento entre os reinantes grandes sauros, ou nossos antepassados hominídeos mais remotos, premidos por grandes necessidades, as atendendo graças a invenções tecnológicas rudimentares, mas ainda assim extremamente sofisticadas, culminando naquela que é o exemplo maior, o artefato crucial: a linguagem.
Esta passagem, que resulta numa ultrapassagem do que éramos para outra forma de sermos, seria a nossa transmutação, e foi assim nomeada, bem como visionariamente imaginada pelo professor de filosofia em Liverpool, doutorado em Oxford, Olaf Stapledon (1886 – 1950), em suas obras de ficção filosófica, com destaque para Last and First Men: A Story of the Near and Far Future (1930) e Star Maker (1937), que tanta influência teve em autores dos mais importantes, inclusive os que se notabilizaram no que veio a ser a chamada “ficção científica”, como os “três grandes” (Big Three): Isaac Asimov (1920 – 1992), Arthur C. Clarke (1917 – 2008) e Robert Heinlein (1907 – 1988), sendo deste a minha obra predileta no gênero, em considerando Star Maker como ainda não pertencente a ele: Stranger in a strange Land (1961).
Arthur C. Clarke em colaboração com Stanley Kubrick, com base em contos que havia publicado anteriormente, realizou roteiro de filme de 1968, que contém elementos ainda hoje preciosos para a reflexão sobre o quanto aqui estamos tratando, intitulado 2001: uma Odisseia no Espaço. No mesmo ano saiu publicado o livro homônimo de Clarke, o qual viria a se tornar o primeiro de uma tetralogia. Ali, temos a figura do Robô Hal 9000, um aparato dotado de IA, com a função de cuidar de tudo quanto fosse necessário para que a missão pioneira dos tripulantes da nave espacial em que estava inserido atingisse o objetivo de ir além do nosso sistema solar. Durante a longa jornada, a quase totalidade da tripulação “hibernava”. O membro que ficara desperto, quase que por uma formalidade, como sabe quem assistiu ao filme ou leu o livro, se depara com o grave problema de que seus companheiros começaram a falecer, sendo que Hal não tinha resposta para tal problema crucial, uma vez que a causa era ele mesmo: aquilo que deveria guiar e proteger a missão, portanto, entra em crise autoimunitária, passando a atacá-la em nome de tal defesa, uma vez que calculou serem os humanos presentes na nave, com sua imprevisibilidade, os mais altos fatores de risco a ameaçar a missão, e o seu programa determinava a eliminação de tais fatores.
É aqui que propomos o encontro com a obra mais conhecida do mais jovem daqueles Big Three, a saber, o clássico I, Robot, de Isaac Asimov. Ali se enuncia as muito conhecidas “três leis da robótica”, que caso tivessem sido implantadas em Hal teriam evitado sua disfunção, apesar de consistente com sua programação, feita por quem tinha como evidente o objetivo de servir ao seu criador de toda criatura, um pressuposto claramente teológico.
Dando agora uma olhada em nosso presente, no que contei com o fundamental apoio de minha esposa e parceira de pesquisas Paola Cantarini, temos que o Parlamento Europeu publicou, em 2017, Relatório sobre robótica e inteligência artificial abordando questões jurídicas decisivas, como a da responsabilidade civil resultante de “atos” praticados por tais entes eletrônicos, como também questões éticas, defendendo que os robôs autônomos possuam uma “personalidade eletrônica”, ou seja, reconhecendo que estes são aptos a arcar com a “responsabilidade de seus atos”, podendo – e, mesmo, devendo, já há quem defenda -, inclusive, ser objeto de imposição de taxas. Também está em discussão igualmente a elaboração de um código de conduta ética para engenheiros de robótica. A ética digital que isto pressupõe identificaria novas perspectivas, potencialidades e limites para o tratamento de dados, no sentido de uma abordagem proativa. Neste sentido, tem-se a necessidade da adoção e da previsão pela legislação de novos mecanismos, tais como relatórios de impacto, auditorias de algoritmos, códigos de boas condutas, certificações e programas de governança. A nossa Lei Geral de Proteção de Dados – LGPD – já prevê a possibilidade da Autoridade Nacional de Proteção de Dados realizar auditoria acerca de aspectos discriminatórios em tratamento automatizado de dados pessoais, por força do art. 20, § 2º. Fala-se em privacy by design (privacidade na concepção, desde a concepção), privacy by default (por valor, padrão predefinido, proteção máxima de forma automática) e privacy by business model, como derivações do princípio da accountability, envolvendo prestação de contas, responsabilização, fiscalização e controle social. O conceito de privacy by business model envolve a observância da privacidade abrangendo a forma de estruturação do modelo de negócio, desde sua concepção e elaboração de seu plano inicial, de modo a prever a proteção de dados pessoais, baseados no empoderamento do titular dos dados. As ferramentas da privacy by design e privacy by default estão previstas pelo Regulamento da União Europeia, no Considerando 78, bem como no artigo 5º, ao tratar dos princípios relacionados ao processamento de dados desde a sua criação até a minimização de dados, e em seus artigos 24, 25, 32 e 42, ao reiterar a necessidade da adoção de medidas técnicas e organizacionais adequadas bem como assegurar um nível de segurança adequado.
Estas são práticas de proteção de dados com base na utilização da própria tecnologia, possibilitando o controle dos dados pelos titulares, conhecidas como privacy enhancing technologies (PETs), incorporando os conceitos de privacidade e proteção de dados desde à concepção da arquitetura dos sistemas (by design), e por padrões de configuração (by default). Eis um resumo do que se pode entender como nossos esforços para implementar juridicamente as “Leis da Robótica”, propostas por Asimov, de quem comemoramos o centenário no ano em curso.