DRONES, AUTOAPRENDIZADO DA MÁQUINA, RESPONSABILIDADE NA BOLHA 

Um drone da Força Aérea dos Estados Unidos controlado por inteligência artificial recebeu um comando para destruir os sistemas de defesa aérea de um inimigo e passou a atacar qualquer um que interferisse no cumprimento da ordem. Com isso, acabou matando o seu próprio operador durante a simulação. O caso foi revelado pelo chefe de testes e operações de IA das Forças Armadas durante uma conferência sobre tecnologia e combates aéreos, em Londres, no ano passado.1

De acordo com o jornal britânico “The Guardian”, o coronel Hamilton afirmou, no encontro, que o drone usou “estratégias altamente inesperadas para atingir seu objetivo”. Como a simulação foi virtual, ninguém ficou ferido. Mas o resultado do teste gerou preocupações sobre a aplicação da inteligência artificial na seara militar.2

Esse caso parece preocupante porque o operador do drone teria perdido o controle sobre a máquina tendo decorrido do autoaprendizado da máquina o ataque perpetrado contra o próprio operador. O problema é grave porque para esses drones utilizados em guerras não existem regras que limitem o comportamento da máquina, já que violam as três leis da robótica formuladas por Isaac Asimov. 

De acordo com as três leis da robótica em primeiro lugar um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal, segundo, um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens contrariem a Primeira Lei e, terceiro, um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou a Segunda Lei.

O que se questiona, então, nesta situação hipotética, é se o oficial das Forças Armadas que conduziu o experimento poderia ser responsabilizado criminalmente pela morte do operador do drone. Segundo a teoria da imputação objetiva não parece claro se haveria crime, o conceito de risco proibido parece nebuloso nesse caso. Segundo a teoria do efeito bolha no direito penal esse é um problema de responsabilidade na bolha: o agente no seu espaço operacional pessoal deve buscar preservar a vida humana na Terra. Isto significa que entre explorar a tecnologia do drone no experimento e zelar pelo ser humano deveria ter optado por preservar a vida humana e, como não o fez, poderá ser responsabilizado penalmente.

A responsabilidade na bolha consiste no atendimento dos preceitos do Princípio Responsabilidade de Hans Jonas. O princípio responsabilidade de Hans Jonas coloca a ênfase na obrigação moral de agir de maneira a proteger e preservar o futuro da humanidade e do planeta, considerando os impactos de longo prazo das nossas ações tecnológicas e científicas. Dado o potencial de impacto negativo das novas tecnologias, Jonas defende uma abordagem prudente e preventiva. Isso significa que devemos evitar ações que possam causar danos irreversíveis ao meio ambiente ou à humanidade, mesmo que esses danos não sejam completamente previsíveis.

Com o desenvolvimento de máquinas cada vez mais inteligentes e complexas podem surgir situações fora de controle pelo homem nas quais o dano não é consequência natural e provável do comportamento da máquina, mas resultado do autoaprendizado. Por isso a exigência de responsabilidade na bolha consiste em limitar os danos emergentes estipulando que o homem deve ser responsável pela vida da humanidade na Terra. O homem se tornaria garantidor do homem, impondo-se-lhe o dever de agir com responsabilidade para evitar resultados danosos à humanidade.

1 Drone comandado por inteligência artificial ‘mata’ operador durante simulação nos EUA texto de Extra Mundo, disponível em https://extra.globo.com/mundo/noticia/2023/06/drone-comandado-por-inteligencia-artificial-mata-operador-durante-simulacao-nos-eua.ghtml , acesso em 2024.

2 Idem.

Leave a comment