
Quem Paga a Conta? A Responsabilidade pelos Danos Causados por Robôs Autônomos
A revolução tecnológica tem gerado uma série de desafios no campo jurídico, especialmente com o advento dos robôs autônomos, que estão sendo cada vez mais integrados a setores como saúde, transporte e indústria. Com essa evolução, surgem questões cruciais sobre a responsabilidade civil: quem deve ser responsabilizado quando um robô causa danos? Essa discussão é global e, enquanto a Europa busca desenvolver um marco regulatório para lidar com essas situações, o Brasil também está avançando com a proposição do Projeto de Lei 2.338/23, que estabelece normas para o uso da inteligência artificial (IA).
Atualmente, a robótica autônoma é uma realidade significativa, com a Europa à frente na implementação de veículos e robôs autônomos em larga escala. No Brasil, a adoção de tecnologias autônomas está crescendo, especialmente em setores como agronegócio e logística. Contudo, a complexidade dos sistemas autônomos, que podem tomar decisões imprevisíveis, desencadeia a necessidade de um novo entendimento sobre responsabilidade civil. A dúvida central é: seria o fabricante, o programador, o usuário ou o robô o responsável?
A União Europeia já se debruçou sobre essa questão e propôs um sistema de responsabilidade objetiva, que atribui a responsabilidade pelos danos causados por robôs a quem os controla ou utiliza. Essa abordagem visa facilitar a indenização das vítimas, eliminando a necessidade de comprovar culpa. No contexto brasileiro, o PL 2.338/23 representa um passo importante ao estabelecer um marco regulatório que inclui a responsabilidade civil por danos causados por sistemas de IA. O projeto determina que, em casos de sistemas de IA de alto risco, como veículos autônomos, a responsabilidade será objetiva, ou seja, não será necessário provar culpa para que os responsáveis sejam responsabilizados.
No entanto, o Código Civil brasileiro, que se fundamenta na culpa para determinar a responsabilidade civil, carece de disposições adequadas para lidar com as particularidades dos robôs autônomos. O novo PL busca preencher essa lacuna ao definir claramente as responsabilidades dos fornecedores e operadores. A proposta também sugere que, em sistemas de menor risco, a culpa do agente deve ser presumida, facilitando a proteção das vítimas.
Além disso, assim como a Europa, o Brasil pode considerar a implementação de um regime de seguros obrigatórios para robôs autônomos, o que poderia garantir que os danos sejam cobertos de maneira justa e eficiente. O PL 2.338/23 já reconhece a importância de medidas de governança e segurança para os sistemas de IA, sugerindo também a possibilidade de seguros para cobrir danos potenciais.
Para aprimorar o quadro regulatório, o Brasil poderia criar um marco específico para robótica e IA, estabelecer um sistema de seguros obrigatórios, implementar um fundo de compensação para danos não cobertos por seguros e promover transparência no desenvolvimento dos robôs, com registros das decisões autônomas, por exemplo.
Essas iniciativas visariam criar um ambiente jurídico que protegesse tanto as vítimas quanto os desenvolvedores, fomentando a inovação de forma responsável. O PL 2.338/23 é uma proposta promissora, mas a reflexão contínua e a adaptação são essenciais para que o Brasil possa se posicionar de forma sólida e ética diante dos avanços da tecnologia autônoma.