Por Bruno Mendonça

Na última sexta-feira (18/09), foi publicada matéria pela Revista Época Negócios¹ exaltando os resultados alcançados pela plataforma de Inteligência Artificial, a RadVid-19. O recurso é utilizado pelo Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo para antecipar o diagnóstico e a evolução da COVID-19 e opera por meio de um banco de dados de mais de 15 mil radiografias de tórax e tomografias de pulmão. Os números envolvidos superam em muito a expectativa inicial: até setembro a plataforma havia recebido mais de 28 mil consultas de médicos e instituições de saúde de 12 estados do país, impactando positivamente toda a política de enfrentamento nacional da pandemia. Por outro lado, não raras vezes, tomamos conhecimento de situações que desvelam o lado obscuro das novas tecnologias emergentes, a exemplo dos acidentes fatais provocados pelo piloto automático dos carros da Tesla². Diante de casos tais, que caminham da quebra positiva de expectativas ao cometimento de ilícitos, quem, sob a perspectiva jurídica, deveria colher os louros e pagar a conta?

Segundo a sugestão da comissão europeia, citada por Isabella Santana (SANTANA, 2020), a Inteligência Artificial (IA) deve ser entendida como um “sistema que apresenta comportamento inteligente, analisando o ambiente e agindo, com um certo nível de autonomia, para atingir objetivos específicos”. Por meio dessa definição, é possível concluir que a grande diferença da Inteligência Artificial para os métodos comuns de análise de dados, também conhecidos como Robotic Process Automation (RPA), é o modo de processamento e a autonomia na tomada de decisões. Enquanto o RPA tem a pretensão de automatizar tarefas repetitivas, de modo padronizado e linear, conforme originalmente programado, a IA tem a pretensão de simular a inteligência humana, através de algoritmos matemáticos baseados no acúmulo de dados, que espelham as ligações cerebrais de aprendizado e processamento de informações do homem.

A partir desses esclarecimentos conceituais, podemos dizer que a gama de técnicas e ferramentas que permitem aos computadores “pensarem” e tomarem decisões de forma racionalizada e autônoma, sem intervenção humana, seria capaz, em princípio, de imputar às máquinas a responsabilização pelos atos “conscientemente” cometidos, afinal, de acordo com o ordenamento brasileiro, a livre determinação de ação do agente é um elemento característico da responsabilidade, seja na esfera civil ou penal.

Ocorre que a mesma legislação define como pressuposto da caracterização da responsabilidade a ação ou omissão levada a efeito por sujeitos dotados de personalidade e capacidade jurídica. Em razão disso, há quem sustente, a exemplo de Peter Asaro, que o regime de responsabilidade da Inteligência Artificial não se sustenta em pé de igualdade com o regime dedicado às pessoas plenamente capazes, qualificando os robôs como quasi-pessoas, assim como os nascituros, agentes que demandam regulamentação específica para exercício de sua posição jurídica.

Por outro lado, há quem sugira a aproximação do regime jurídico dos robôs ao das empresas (entes fictícios com personalidade jurídica própria, conferida artificialmente por meio de lei). Hipótese que admitiria, inclusive, a persecução penal das máquinas, naturalmente com restrições (ineficácia de pena privativa de liberdade), a exemplo do que ocorre com empresas em matéria de ilícito ambiental.

Alguns juristas, por sua vez, equiparam os robôs, mesmo aqueles com nível de autoconsciência, a produtos protegidos pelo Código de Defesa do Consumidor. Por esta linha, caso algum dano seja causado por ato comissivo ou omissivo das máquinas autônomas, seus proprietários (agentes públicos ou privados) serão os responsáveis pela reparação ou que, em última análise, a responsabilidade recaia sobre os próprios fabricantes, caso seja provado que o proprietário seguiu todas as recomendações de uso. Há, por fim, quem sustente a equiparação das máquinas autoconscientes aos animais, a exemplo de Yang, Zhuang e Wang, neste caso, seus guardiões (dono ou detentor) respondem objetivamente pelos danos causados, salvo na hipótese de fato exclusivo de terceiro, e por prêmios eventualmente recebidos.

O problema, conforme se verifica, recai sobre a natureza jurídica das máquinas, o que impõe uma gama de diferentes consequências a depender do enquadramento, com repercussão inclusive na esfera penal. Ocorre que até o momento não há definições impositivas sobre a matéria em nível de regulação nacional. Bom, pelo menos não na maioria dos Países.

Em 2017, um robô social dotada de inteligência artificial de nome Sophia, viu pela primeira vez reconhecida sua cidadania, nos termos da lei. Durante o evento Future Investment Initiative, sediado em Riad, capital da Arábia Saudita, foi reconhecida a cidadania Saudita do mais avançado robô sensorial da indústria, dotado de tecnologia que permite a leitura e processamento de rostos, semblantes e emoções. Sophia é capaz de criar suas próprias relações com os humanos. Esse inusitado precedente nos permitiria conferir à Sophia direitos e deveres diretamente ligados à dignidade da pessoa, em igualdade de tratamento aos seus concidadãos humanos?

A matéria é tormentosa e destituída de resposta pronta. Segundo Isabela Santana já temos institutos jurídicos o suficiente para regrarmos a matéria sem novas edições legislativas, bastando para tanto a consolidação jurisprudencial sobre o tema. Posição a qual particularmente não me filio, diante da absoluta incompatibilidade entre a natureza dos agentes comparados. Afinal, seja a equiparação com empresas, seja com produtos, nascituros ou animais, todas as opções desconsiderarão as condições existenciais de seu objeto de tutela, quais sejam, a autoconsciência e a racionalidade das máquinas.

Diante desse cenário e da completude que envolve a IA, o melhor caminho que se vislumbra é através da criação de uma personalidade jurídica própria aos robôs autônomos mais sofisticados, melhor definida como personalidade eletrônica, que seja original e com regramento particular (espécie de estatuto para a robótica), tal como já esboçado pelo parlamento europeu. A provocação que nos resta é a seguinte: O que Sophia, afinal, acharia de tudo isso?




Notas e Referências Bibliográficas

¹MENCIONI, Darlene. Como a inteligência artificial ajudou o Hospital das Clínicas na luta contra o coronavírus. Época Negócios – Revista Digital. Publicado em 19/09/2020. Acesso em 19/09/2020.

²NOGUEIRA, João Gabriel. Carro da Tesla se envolve em novo acidente fatal com o piloto automático ligado. Mundo Conectado. Publicado em 17/05/2019. Acesso em 19/09/2020. SANTANA, Isabela da Penha Lopes. Culpabilidade penal da inteligência artificial. Direito Exponencial: O papel das Novas tecnologias no Jurídico do Futuro. Cintia Ramos Falcão, Tayná Carneiro, coordenação. 1ª ed. – São Paulo: Thomson Reuters Brasil, 2020. ASARO, Peter M. Robots and responsability from a legal perspective. Disponível em https://peterasaro.org/writing/ASARO%20Legal%20Perspective.pdf. Acesso em: 17/09/2020. YANG, Jingan; ZHUANG, Yanbn; WANG, Hongyan. Evolutionary robot behaviors based on natural selection and neural network. Institute of artificial intelligence, China, ago. 2014. EUROPEAN PARLAMENT, Civil Law Rules on Robotics. Europarl, publicado em 15 de novembro de 2017.