Quem tem medo de algoritmos?

Provavelmente muitos de nós ainda não notamos, mas é bastante comum a utilização de algoritmos nas nossas atividades cotidianas. Claro, muita gente nem se deu conta, ainda, do que são algoritmos. Você sabe, afinal, do que estamos falando? É essa resposta que levará o leitor a entender não só o conceito, mas também se há motivos para admirá-los ou temê-los.

Quando eu ainda era um estudante do Ensino Médio (naquela época, o nome era outro, videaqui) recordo que, nas aulas de Matemática, meus professores falavam sobre esse tema. Apesar disso, tenho recordações não muito boas e tampouco claras sobre o assunto, porque este era tratado como algo complexo e que não teria grande utilidade para quem não fosse da área de Exatas. Como não era esse o meu foco para o futuro profissional, não dei a devida atenção ao assunto. Um grande equívoco meu e dos professores! Pelo menos, com o tempo e mais maduro, pude correr atrás deste atraso e me informar e estudar sobre o tema.

Mas, então, o que são os tais algoritmos? Na verdade, nada tão complexo, nem mesmo para leigos. São fórmulas para a execução de determinadas tarefas ou para a resolução de problemas, como uma receita de bolo ou um script de um recepcionista de um restaurante.

Vejamos um exemplo prático que chamaremos de “Algoritmo recepcionista de restaurante”. Assim que o cliente chega ao restaurante, o recepcionista deverá: 1. Verificar se ele possui reserva; Se tiver reserva… 2. Conferir a data e horário; Se o cliente estiver no horário… 3. Permitir a entrada; 4. Encaminhá-lo à sua mesa; 5. Fim; Se o cliente estiver atrasado… 6. Proibir a entrada; 7. Solicitar que aguarde a ordem de chegada/fila; 8. Assim que a mesa estiver disponível, repetir os passos 3, 4 e 5 acima; Se o cliente estiver adiantado… 9. Verificar se a mesa está disponível; Se estiver disponível… 10. Repetir os passos 3, 4 e 5 acima. Se não estiver disponível… 11. Solicitar que aguarde; 12. Com a mesa pronta, repetir os passos anteriores pertinentes.

Note que qualquer um que seguir os passos acima mencionados poderá atuar – em tese – na função de recepcionista de restaurante. Claro que a simpatia, o tom, a cordialidade de cada um poderá fazer toda a diferença para o cliente. Importante, no entanto, é perceber que o algoritmo tem um fluxo que pode direcionar para distintos caminhos a depender da situação em que se encontra, e que, em algum momento, o fluxo acaba.

Entendido isto, é de se considerar que vivemos cercados de decisões, sejam tomadas por nós (afetando a nós mesmos e a terceiros) ou por terceiros (nos afetando). Não só dependemos de decisões nossas e de outros, como também esperamos que elas sejam justas quando somos avaliados em processos seletivos, em decisões judiciais e em outros tantos casos. Sabemos, todavia, que há decisões que conterão caráter de parcialidade, como um ranking de maus pagadores, mas o momento é de maior reflexão.

É fato que os algoritmos são amplamente utilizados na tecnologia e que são constituídos a partir de dados, o que os torna bastante mais complexos que o “algoritmo do recepcionista do restaurante”. Isso significa que, se houver um problema no registro, algo como uma parcialidade, falta ética ou preconceito no input deles no sistema, essas características serão naturalmente processadas como regras/verdades/padrões.

Para deixar isso mais claro e considerando que este texto está em uma rede social de integração profissional, vamos exemplificar com currículos. Se a análise de currículos para determinadas vagas for feita a partir de banco de dados onde a maioria das anteriores foi preenchida por homens, é provável que um algoritmo priorize o sexo masculino em detrimento do feminino.

Outro exemplo importante é o do uso de algoritmos para subsidiar decisões judiciais. Nos EUA, a Suprema Corte de Winsconsin validou uma sentença condenatória fundada na análise preditiva feita pelo software COMPASS, que analisou antecedentes criminais, idade, nível de escolaridade, utilização de drogas, vínculos sociais e outros. A questão é que o algoritmo é sigiloso e não pode ser contestado adequadamente pela defesa do condenado. E, sem dúvidas, pode ter havido análise algorítmica preconceituosa neste caso. Já escrevi sobre este caso anteriormente e o texto pode ser lido aqui.

Outros dois casos merecem menção. Em março de 2016, a Microsoft havia apresentado ao mundo uma conta do Twitter (@TayandYou) como um perfil de interação automático com o público adolescente, com algoritmo para aumentar seu vocabulário (uma chatbot). O perfil tinha estética própria, falava sobre tudo e publicava textos e imagens. Conseguiu muito rapidamente quase setenta mil seguidores e a publicação de uns cem mil tweets. Mas a vida da @TayandYou foi bastante efêmera porque ficou menos que um dia no ar, já que a interação com o público, sem qualquer filtragem de conteúdo, permitiu que ela absorvesse assuntos bastante odiosos, como ofensas a judeus, comentários racistas e homofóbicos.

Outro caso a ser mencionado é o do aplicativo SimSimi, destinado à interação com adolescentes (seu termo de uso indicava idade mínima de 13 anos), mas cujo simpático personagem passou a aprender impropérios a partir da conversa com os humanos. O aplicativo chegou a ser removido das lojas e o serviço suspenso no Brasil. Mais detalhes podem ser lidos aqui.

Notem que, com as menções acima, não se pretendeu alarmar o leitor para um possível caos ou um armagedom. A ideia é deixar claro que os problemas comuns do nosso cotidiano se aplicam ao universo tecnológico, como é o caso de preconceitos, ofensas, más condutas, falhas éticas…

Então é o momento de refletirmos sobre o problema por trás disso. Os algoritmos seriam o problema central? Ou quem os programa? E se quem os programou foi também um algoritmo?

Cabe-nos, assim, refletir se devemos ter medo ou admirar a tecnologia aliada aos algoritmos. Ou haveria uma terceira via? Como sua utilização é realidade e parte de importantes modelos de negócios do qual somos componentes indissociáveis, como podemos nos salvar das mazelas de algoritmos maculados por inputs preconceituosos ou injustos? Conformismo e aceitação não são, a nosso ver, o caminho. Dependemos, assim, de debates e engajamento sobre transparência algorítmica. Somente assim poderemos auditar os preconceitos e injustiças eventualmente neles inseridos.

A grande dificuldade será providenciar transparência adequada sem que haja o comprometimento dos modelos de negócios que, evidentemente, dependem em grande parte de sigilo. Veja-se, por exemplo, que carros autônomos terão programações para casos de possíveis acidentes. Como garantir que as decisões não serão tomadas considerando a jurisprudência da localidade sobre o resultado? Quem deve ser atropelado em caso de emergência? A grávida? O idoso? Ou quem os números mostrarem? E se essa decisão for baseada puramente em números e num contexto de economia para a empresa que pagará a indenização pelo dano?

Sendo as discussões sobre a responsabilidade e transparência no uso de algoritmos ainda incipientes no Brasil, precisamos refletir sobre isso. Entendemos que as pessoas têm o direito de saber sobre os processos de tratamento de dados com uso de algoritmos que influenciam suas vidas, de modo que possam contestar erros e decisões. Em outras palavras, será a limpidez algorítmica a responsável pela manutenção de direitos humanos e da democracia online. Afinal, decisões puramente estatísticas terão sempre o condão de serem injustas.

A transparência, então, só virá com elementos éticos relativos a possível auditoria sobre erros ocorridos, com transparência judicial (auditoria nos sistemas automatizados), sistema de responsabilidades para desenvolvedores (já que eles têm interesses nas aplicações morais do uso, uso indevido e ações, com responsabilidades e oportunidades de alterações neste cenário), o desenvolvimento deve ser alinhado com os ideais da dignidade humana considerada a diversidade cultural, as pessoas devem ter direitos de acesso, gerenciamento e controle dos dados de sua titularidade, as tecnologias deveriam empoderar quanto mais pessoas possível, controle humano (devemos poder escolher quando delegar poderes decisórios aos sistemas automatizados), não subversão (isto é, o poder conferido aos sistemas automatizados devem respeitar e melhorar os processos cívicos e sociais dos quais depende a saudável manutenção da sociedade), armas letais autônomas devem ser evitadas.

Estas são sugestões das quais, eventualmente, se possa discordar. De toda forma, eis minha contribuição ao debate. Aguardo sugestões!

 

Por Marcelo Crespo

Fonte: https://www.linkedin.com/pulse/quem-tem-medo-de-algoritmos-marcelo-crespo-phd-ccep-i/

Comentários

Comentários