Quando se fala em Inteligência Artificial, é comum lembrarmos de sistemas hiper complexos (como o “JARVIS”, do Homem de Ferro, ou a “Skynet”, d’O Exterminador do Futuro). Mas, na realidade, elas costumam ser menos sofisticadas e já fazem parte das nossas vidas, a exemplo da lista de “recomendados para você” do Spotify, ou da Netflix. Embora os sistemas sejam treinados para tarefas “do bem”, eles também podem cometer danos ou até mesmo crimes. Isso já ocorreu com “Random Darknet Shopper”, desenvolvido para “explorar” a Deep Web.
Em 2015, essa Inteligência Artificial acabou comprando, dentre outras coisas, um par de jeans falsificado e pílulas de ecstasy. Existem também os questionamentos ligados a quem seria o responsável por um acidente provocado por um carro autônomo ou mesmo por atos discriminatórios praticados pela tecnologia de forma autônoma.
Há casos ainda mais severos, como os drones militares que por si só mapeiam os suspeitos e decidem sua “eliminação” – como ocorreu em 2011, no Paquistão, com um grupo de homens que estavam simplesmente reunidos numa assembleia local. No Brasil, os robôs e sistemas de Inteligência Artificial não são reconhecidos como entes autônomos e não são dotados de personalidade. Portanto, não podem ser responsabilizados por suas “condutas”. Como a máquina não é humana e jamais será, não há como aplicar o Direito Penal.
Portanto, sistema de Inteligência Artificial atua como mero instrumento.Elas restam, então, em uma categoria de bens cujo proprietário, fabricante ou desenvolvedor poderá ser responsabilizado (seriam comparáveis aos animais, em certos aspectos). No entanto, este é um tema novo e controverso, que merece estudos aprofundados para que seja possível encontrar uma solução ao problema da responsabilização cível e penal nos casos em que envolvam sistemas de inteligência artificial.