A responsabilidade civil de atos ilícitos potencialmente praticados por IAs

Poderia ser adotado o Código de Defesa do Consumidor? Existiriam erros toleráveis e quais atos ilícitos deveriam ser punidos?

“A Inteligência Artificial ou “AI” (artificial intelligence), segundo o programador John McCarthy, é uma ciência e engenharia com propósito de desenvolver máquinas e programas de computador similares à inteligência humana, porém sem se limitar aos métodos biologicamente observáveis (MCCARTHY: 2007, S/N). A diferença entre a Inteligência Artificial e um algoritmo convencional consiste na habilidade da AI de acumular experiências próprias e extrair delas aprendizado, como um autodidata (PIRES: 2017, p. 238-254). Mimetizando a inteligência humana, por meio do denominado machine learning, a ferramenta dotada de AI pode adquirir novos conhecimentos, desenvolver habilidades com a prática e descobrir novos fatos e teorias utilizando-se da observação e experimentação (MICHALSKI: 1984, S/N).

Logo, com a evolução da AI e os obstinados esforços no aperfeiçoamento do machine learning, a AI pode, assim como os seres humanos, agir de forma independente e tomar decisões de modo autônomo (PIRES: 2017, p 238-254).

Embora possam trazer eficiência e maior segurança às atividades tipicamente realizadas por humanos, as ferramentas de Inteligência Artificial também podem, eventualmente, gerar danos a indivíduos e à coletividade.

Na esfera jurídica surge, então, a necessidade de debater como, quando e a quem responsabilizar pelos danos gerados e atos ilícitos “praticados” por Inteligência Artificial. A reparação pelos danos se daria de acordo com uma responsabilidade subjetiva ou objetiva? Poderia ser adotado o Código de Defesa do Consumidor? Existiriam erros toleráveis e quais atos ilícitos deveriam ser punidos? A quem a sanção, se houver, deve ser direcionada? Assim, nota-se que existem inúmeras questões a serem sanadas pelos juristas.

Em um primeiro momento, cumpre esclarecer que a responsabilidade civil incide sobre um ato voluntário, decorrente da vontade do agente, cujo resultado é um dano ou risco aos direitos de outrem, mesmo que este não tenha sido verdadeiramente almejado. Sendo a AI o produto de uma programação complexa de algoritmos, ela é, a princípio, desprovida de vontade, discernimento ético ou sensibilidade social, qualidades exclusivas do ser humano (DI BLASI; CANTARINO:2017, S/N). A responsabilização da máquina, portanto, neste primeiro momento seria incoerente. Assim, a responsabilidade pelos danos causados a outrem, decorrente de atos praticados por AI, seria do programador ou do empresário que comercializa ou fabrica o software, por serem eles os dotados de consciência.

Como preleciona Rodolfo Pamplona Filho e Pablo Stolze Gagliano, constitui requisito necessário para configuração da responsabilidade a conduta humana e voluntária, baseada na própria vontade de agir e na liberdade de escolha (REIS:S/N) – o que, até o momento, não se acredita que ocorra com a AI.

Segundo Maria Helena Diniz, em sua acepção clássica, a responsabilidade civil repousa sobre o tripé formado pela culpa, nexo causal e resultado danoso (BRITO: 2014, S/N). A culpa seria um pressuposto de caráter subjetivo, caracterizado com a performance imprópria do agente causador do dano que, na ocorrência do ato jurídico: – a) abandonou a observação de deveres mínimos de precaução, e – b) inobservou os cuidados indispensáveis ao surgimento de danos ao domínio patrimonial de terceiros.

No entanto, prevê o atual Código Civil que haverá obrigação de reparar o dano, independentemente da comprovação da culpa, quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, riscos para os direitos de outrem (art. 927, § único do Código Civil) – configurando-se, assim, a figura da responsabilidade civil objetiva. Estabelece ainda, o dispositivo legal, que as empresas respondem pela assunção do risco, independentemente de comprovação de culpa, pelos danos que podem ser causados pelos produtos postos em circulação ou pela atividade desenvolvida, essencialmente perigosos.

A responsabilidade civil das Inteligências Artificiais sob a ótica consumerista

Paralelamente, a Lei nº 8.078/90 implementou no ordenamento jurídico o Código de Defesa do Consumidor (CDC), que institui em seu artigo 6º os direitos básicos dos consumidores. Dentre eles, a proteção à vida, saúde e segurança contra os riscos provocados por práticas no fornecimento de produtos e serviços considerados perigosos ou nocivos. A fim de assegurar tais direitos, foram estabelecidos deveres para os fornecedores.

Logo, faz-se necessário compreender a responsabilidade civil das AIs sob a ótica consumerista, sendo certo que as relações entre fornecedor e consumidor envolvendo produto dotado de Inteligência Artificial estão sob a égide do Código de Defesa do Consumidor.

Nesse sentido, na teoria adotada pelo direito consumerista brasileiro, temos como regra geral a responsabilidade civil objetiva daqueles envolvidos com o fornecimento de um produto ou serviço que resultou em algum dano ao consumidor, mais notadamente nos Artigos 12 e 14 do CDC.

A noção de “defeito” que caracterizaria as hipóteses previstas nos artigos supracitados seria ampla, baseando-se, principalmente, na ideia de legítima expectativa de segurança (MJ: 2014, p. 110). O serviço ou produto, portanto, seriam defeituosos ao não fornecer a segurança esperada pelo consumidor, levando em consideração, dentre outros, as circunstâncias do caso do concreto, o resultado e os riscos que razoavelmente dele se esperam.

Ainda no tocante à saúde ou segurança dos consumidores, o art. 8º do CDC prevê que os produtos e serviços colocados no mercado de consumo não devem acarretar riscos aos consumidores, exceto os considerados normais e previsíveis em decorrência de sua natureza e fruição, obrigando-se os fornecedores, em qualquer hipótese, a dar as informações necessárias e adequadas a seu respeito.

Considerando a capacidade da inteligência artificial de acumular experiências e dela extrair aprendizados, não se exclui a possibilidade de que a ferramenta incorra em atos não cogitados por seu próprio fabricante/programador. Ainda que empregando sua máxima diligência, os desdobramentos da inteligência artificial não são de todo previsíveis no estado atual da técnica, de forma que seu desenvolvimento eventualmente poderá extrapolar as previsões iniciais.

Logo, seria possível ao fornecedor prever os riscos esperados pela comercialização da AI, considerando que seria intrínseco ao produto a sua capacidade de desenvolvimento e aprendizado – talvez alcançando, portanto, objetivos e resultados não previstos em sua concepção? Em caso negativo, as ferramentas dotadas de AI que não possam fornecer a segurança exigida pelo direito consumerista não devem adentrar o mercado?

Há que se indagar se poderia ser arguido em contrapartida a questão do risco do desenvolvimento (TEFFÉ: 2017, S/N) para afastar a responsabilidade do fabricante da inteligência artificial. O risco do desenvolvimento “refere-se à colocação no mercado de consumo de produto que se apresentava seguro, ante o mais alto grau de conhecimento técnico e científico existente, mas com o decorrer do tempo e aquisição de novos conhecimentos, vem a ser descoberto que na verdade o mesmo apresentava risco para o consumidor” (SILVA 2006, p. 381).

Nesse sentido, poderia ser arguido que a exclusão de responsabilidade em função do risco do desenvolvimento seria uma medida de garantir o desenvolvimento na área. Em contrapartida, pareceria contraditório para o ordenamento civil brasileiro que existissem danos não sujeitos à reparação, ferindo até mesmo o princípio do neminem laedere (“dever geral de não ofender outrem”) (FERNANDES: 2015, S/N), uma vez que ocupou-se o legislador em prever reparação para os danos insurgidos sem culpa de seu agente e em reconhecer a hipossuficiência dos consumidores de bens ou serviços.

O Código Consumerista prevê, ainda, casos excepcionais nos quais não há responsabilização do fabricante, como dispõe seu artigo 12, § 3º – “O fabricante, o construtor, o produtor ou importador só não será responsabilizado quando provar”, cabendo destacar especialmente o inciso III – “a culpa exclusiva do consumidor ou de terceiro.”

Da leitura do dispositivo acima, temos que a culpa exclusiva do consumidor ou de terceiro, portanto, poderia ser prevista como excludente de responsabilidade do desenvolvedor/fornecedor do produto dotado de Inteligência Artificial.

Conclui-se pela necessidade da adoção de métodos que possibilitem a minimização e a compensação por danos decorrentes dos atos praticados por AI. A exemplo, uma das sugestões do Parlamento Europeu é a criação pelo desenvolvedor de um seguro amplo para amparar as vítimas. O seguro funcionaria como uma espécie de fundo monetário cujo dinheiro seria destinado à reparação dos danos causados pela AI.

Parece que o instituto da responsabilidade civil, provado maleável através da história para adequar-se à realidade e necessidade, deverá empregar ainda mais esforços para adequar-se ao advento e evolução da AI. Há, sobretudo, que indagar-se se os institutos existentes darão conta de cobrir a realidade ou se teremos que reajustá-los ou mesmo reinventá-los para afastarmo-nos da insegurança jurídica. Se há quem diga que o direito está sempre um passo atrás da tecnologia, chega-se a hora de caminharmos.

 

***Artigo orientado pelos professores e coordenadores do CEDITEC-UFRJ Kone Prieto Furtunato Cesário, Carlos Augusto Thomaz e Rodrigo Cantarino, coordenador externo e advogado associado ao escritório Di Blasi, Parente & Advogados Associados.

 

Bibliografia

BRITO, Eduardo César Vasconcelos. Tipologia da responsabilidade civil à luz do novo Código Civil de 2002. Conteudo Juridico, Brasilia-DF: 20 fev. 2014. Disponivel em: <http://www.conteudojuridico.com.br/?artigos&ver=2.47087&seo=1>. Acesso em: 23 set. 2018.

DI BLASI, G.; CANTARINO, R. Limite da IA Frente aos dilemas éticos e morais. Publicado em dez 2017. Disponível em: <https://www.jota.info/opiniao-e-analise/artigos/limite-da-ia-frente-aos-dilemas-eticos-e-morais-08122017>. Acesso em jun 2018.

MANUAL DO DIREITO DO CONSUMIDOR. 4ª ed. Ministério da Justiça. 2014.

MCCARTHY, John. What is Artificial Intellingence. Nov 2007. Disponível em: <http://www-formal.stanford.edu/jmc/whatisai/whatisai.html>. Acesso em jun 2018.

MICHALSKI,R.S.; CARBONEL, J.G.; MITCHELL.T.M. Machine Learning: An Artificial Intelligence Approach. Disponível em: <https://books.google.com.br/books?hl=pt-BR&lr=&id=-eqpCAAAQBAJ&oi=fnd&pg=PA2&dq=machine+learning&ots=Wl1TRF2Jh4&sig=xZVIDBWmysRM7tJbQCZ6OfYWM6A#v=onepage&q=machine%20learning&f=false> . Acesso em jun 2018.

PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras. Polít. Públicas, Brasília, v. 7, nº 3, 2017.

REIS, Filipe A. A responsabilidade civil. Disponível em: <https://rcsantos695.jusbrasil.com.br/artigos/112209728/a-responsabilidade-civil?ref=amp> . Acesso em ago 2018.

SILVA, Marco Aurélio. Responsabilidade pelo risco de desenvolvimento. In: Revista da Faculdade de Direito de Campos, Ano VII, nº8, jun 2006. Disponível em: <http://www.uniflu.edu.br/arquivos/Revistas/Revista08/Discente/MarcoAurelio.pdf >  Acesso em ago 2018

TEFFÉ, Chiara S. Quem responde pelos danos causados pela IA?. Publicado em out 2017. Disponível em: <https://www.jota.info/opiniao-e-analise/artigos/quem-responde-pelos-danos-causados-pela-ia-24102017>. Acesso em jun 2018.

 

Por Bernardo Becker Nicoll Simões, Bruna Luiza Barbosa Cruvienel, Lorena Coelho  Robinson

Fonte: https://www.jota.info/opiniao-e-analise/artigos/a-responsabilidade-civil-de-atos-ilicitos-potencialmente-praticados-por-ias-28102018

Comentários

Comentários