Especialistas discutem responsabilidade de robôs, big data e cyberataques

Tecnologias como inteligência artificial e big data não só devem acelerar o trabalho de tribunais e escritórios como devem inaugurar uma série de causas e dilemas éticos que vão demandar a atuação do Judiciário. Os robôs são pessoas físicas ou jurídicas? Quem responde a um dano ou mesmo uma morte causada por um robô? Qual a validade de acórdãos desenvolvidos por máquinas? Essas são apenas algumas das questões a serem respondidas por especialistas.

O assunto foi debatido durante o 1º Congresso Internacional de Direito e Tecnologia, realizado em Brasília entre os dias 23 e 24 de novembro. O evento foi organizado pela startup Legal Labs e pelo grupo de pesquisa DireitoTec, da Universidade de Brasília (UnB).

A professora Ana Frazão, da UnB, afirma que a inteligência artificial dificulta a distinção entre sujeito e objeto. Capazes de pensamento racional, os sujeitos possuem direitos, deveres, agência e imputabilidade. Já os objetos são caracterizados por possuir valor econômico. Nesse caso, os robôs seriam sujeito ou objeto? Como as máquinas se tornam cada vez mais autônomas e substituem humanos em diversas tarefas, fica cada vez mais difícil definir quem é responsável pelas ações dos robôs.

Sobre o assunto, a pesquisadora Florence G’Sell, da Universidade de Lorraine, na França, defendeu que os robôs se aproximam do conceito de sujeito porque são capazes de pensar e ter iniciativa. Por outro lado, lembra que o poder extraordinário de processamento das máquinas costuma ser destinado a tarefas específicas, sem garantir um entendimento mais generalizado sobre o ambiente em que está inserido.

Um caso emblemático sobre a responsabilidade das máquinas é o do acidente com um carro autônomo da Tesla, em 2016, que levou à morte do motorista. Funcionando em piloto automático, o robô não conseguiu detectar um caminhão branco contra a luz do céu muito brilhante. A colisão ocorreu em um cruzamento.

Na tentativa de criar diretrizes judiciais para robôs, uma recomendação do Parlamento Europeu sugere um meio termo: a criação de uma “pessoa eletrônica” (do inglês, electronic personhood), que é diferente de pessoas físicas ou jurídicas. “No cenário em que um robô pode tomar decisões autonomamente, as regras tradicionais não são suficientes para ativar a responsabilidade do robô, já que não possibilitam identificar a parte responsável por prover compensação”, lê-se.

O dispositivo propõe que a responsabilidade da empresa fabricante do produto em casos de acidente seria reduzida proporcionalmente à autonomia do robô. Além disso, a recomendação sugere o desenvolvimento de um seguro obrigatório destinado a acidentes com robôs, suplementado por um fundo que garanta a reparação em casos não abrangidos pela cobertura.

Como exemplo, G’Sell também citou compras realizadas incorretamente pelo Echo, da Amazon. O dispositivo ativado por comando de voz pode interpretar a fala erroneamente e fazer pedidos sem a manifesta intenção do dono. Nesse sentido, a pesquisadora questiona se os contratos concluídos por uma máquina deveriam ser reconhecidos legalmente. A dúvida fica mais evidente caso o robô seja programado para tomar decisões sem consentimento específico de nenhum humano, apenas com base na análise de extensas bases de dados a respeito da preferência dos donos.

Caso os robôs sejam considerados pessoas eletrônicas, eles poderão ter dinheiro, acumular ativos e pagar impostos? Eles serão protegidos por direitos humanos, poderão fazer petições em tribunais e se defender de acusações criminais? “A pessoa eletrônica ajudaria a resolver alguns problemas, mas criaria outros que talvez sejam ainda maiores”, afirmou G’Sell.

Voto assistido

Para acelerar a tramitação de processos, o secretário de Tecnologia da Informação do Conselho Superior da Justiça do Trabalho, Cláudio Feijó, considera fundamental desenvolver uma ferramenta de voto assistido para auxiliar os magistrados. O modelo de inteligência artificial trabalharia com big data, conceito que denomina extensas bases de dados analisadas por computadores para revelar tendências, padrões e associações.

Decisões, acórdãos, votos, leis e outras informações jurídicas seriam processadas para sugerir votos relatórios aos juízes. Em vez de fazer a pesquisa do zero, os magistrados partiriam da proposta da máquina. Para não delegar as decisões aos robôs, os magistrados revisariam o texto e o aprimorariam antes de oficializar a decisão.

A professora Ana Frazão alerta que a implantação das novas tecnologias no Judiciário sem regulação pode trazer prejuízos, como a reprodução de preconceitos pela Justiça. A pesquisadora considera preocupante que algoritmos sejam empregados na tomada de decisões tão importantes sem qualquer tipo de regulação.

“Quem garante que as estatísticas ou os números inseridos refletem relações adequadas? Podem se referir a correlações que não são causalidades e conter vieses, como discriminações. Os resultados disso podem ser incompatíveis com os objetivos constitucionais”, afirmou.

O especialista em inteligência artificial Solon Barrocas, da Cornell University, nos Estados Unidos, afirmou existir um tradeoff entre a acurácia e a capacidade de se explicar o processo de sistemas que auxiliam a tomada de decisão. Segundo Barrocas, sistemas mais precisos envolvem tantas variáveis em cálculos tão complexos que nem os desenvolvedores conseguem interpretar o que o modelo está fazendo.

O problema técnico pode se tornar moral e legal. Suponha que a prisão de uma pessoa seja determinada em grande medida devido ao raciocínio de uma máquina. Provavelmente o condenado vai demandar uma explicação para sua sentença.

O pesquisador afirma que algoritmos de árvore de decisão são mais fáceis de compreender, mas costumam ter eficiência mais baixa. Baseado em condições, o método parte de situações iniciais para determinar qual é o resultado mais provável entre os disponíveis, bem como avaliar os custos envolvidos. Por exemplo: o modelo determina que, se forem atendidas as condições A e B, então se obtém o resultado um. Porém, se for atendida só a condição A, obtém-se o resultado dois. E assim sucessivamente.

Baseada na estrutura biológica do cérebro, a tecnologia de redes neurais artificiais é muito mais precisa para determinar resultados. Em contrapartida, é igualmente mais difícil de explicar. “Pode ser que nós só vamos obter sucesso e eficiência se desistirmos de entender por quê o sistema está se comportando daquela forma”, projeta Barrocas.

Cyberataques

O advogado americano Jon Neiditz, do escritório Kilpatrick Townsend & Stockton LLP, apresentou possibilidades de atuação para advogados em relação a ataques de hackers. Criminosos podem sequestrar bases de dados essenciais para os negócios por meio de ransomware, bem como comprometer servidores corporativos.

Esses ativos são críticos para empresas como bancos, que se baseiam no histórico de pagamento dos clientes para avaliar, por exemplo, perfis de crédito. O vírus criptografa os dados a ponto de torná-los impossíveis de processar ou, no mínimo, comprometer a sua credibilidade. O ataque tem como objetivo extorquir as vítimas em troca da retirada do malware.

De acordo com Neiditz, as empresas devem procurar a orientação de advogados assim que o problema é detectado. Os profissionais não só esclarecem quanto à possibilidade de entrar na Justiça, mas também ajudam a negociar com os hackers. Segundo ele, no fim das contas, as companhias acabam decidindo pagar pelos dados.

“Você precisa se comunicar com os criminosos porque eles tiraram algo de que você precisa. O mais importante é manter o negócio funcionando. E essa demanda está crescendo, porque o ataque pode comprometer também todos os back-ups e dados históricos das empresas”, explica.

Fonte https://www.jota.info/

Por Jamile Racanicci

Comentários

Comentários