Na realidade, no entanto, a AI Bill of Rights visa proteger o público dos danos que os sistemas automatizados podem produzir por meio de seus vários algoritmos – um fenômeno conhecido como viés de inteligência artificial ou viés de IA.
O que é viés de IA?
Graças aos avanços na ciência da computação, os desenvolvedores têm criado algoritmos tão poderosos que podem nos ajudar a tomar decisões com mais eficiência – desde aprovações de empréstimos, contratações e elegibilidade para liberdade condicional até atendimento ao paciente. No entanto, o que alguns desses criadores não previram é que muitas dessas decisões feitas por máquinas refletiriam preconceitos humanos.
Imagine isso:
Uma mulher se candidata a um emprego, mas sua inscrição é rejeitada automaticamente porque um algoritmo de recrutamento está configurado para favorecer os currículos dos homens.
A oferta de um casal latino para a casa dos seus sonhos é recusada repetidamente por causa de um algoritmo de aprovação de hipotecas, apesar de serem pessoas com altos salários e uma boa entrada.
Um adolescente negro que é pego roubando é rotulado como um futuro infrator de alto risco por um algoritmo usado na sentença do tribunal, enquanto um homem branco que rouba algo do mesmo valor é classificado como de baixo risco.
Os exemplos acima são exemplos da vida real de viés de IA encontrados embutidos nos sistemas algorítmicos de uma grande empresa de tecnologia , os maiores credores hipotecários do país e o sistema judicial, respectivamente.
Por que o viés de IA ocorre?
Embora o viés na IA geralmente não seja deliberado, é uma realidade. E, embora não haja uma resposta definitiva sobre o que exatamente causa o viés da IA, as fontes conhecidas por contribuir incluem:
Viés do criador: como algoritmos e softwares são projetados para imitar humanos descobrindo certos padrões, às vezes eles podem adotar os preconceitos inconscientes de seus criadores.
Viés orientado por dados: Algumas IAs são treinadas para aprender observando padrões nos dados. Se um determinado conjunto de dados mostrar viés, a IA – sendo um bom aprendiz – também o fará.
Viés por meio da interação: 'Tay', o chatbot da Microsoft baseado no Twitter, é um excelente exemplo. Projetado para aprender com suas interações com os usuários, Tay, infelizmente, viveu apenas 24 horas antes de ser desligado depois de se tornar agressivamente racista e misógino.
Viés latente: é quando um algoritmo correlaciona incorretamente ideias com estereótipos de gênero e raça. Por exemplo, se a IA correlaciona o termo “médico” com homens, apenas porque figuras masculinas aparecem na maioria das imagens de banco de imagens.
Viés de seleção: se os dados usados para treinar o algoritmo super-representam uma população, é provável que ele funcione de forma mais eficaz para essa população em detrimento de outros grupos demográficos (como visto com o casal latino acima).
Nos últimos anos, ficou mais claro que as máquinas criadas para agilizar o processo de tomada de decisão humana também estão aumentando as questões éticas generalizadas.
Não surpreendentemente, isso resultou em pedidos para que o governo dos EUA adote uma declaração de direitos algorítmica que proteja os direitos civis e as liberdades do povo americano – um pedido que eles finalmente atenderam.
Como a Declaração de Direitos da IA combaterá o preconceito?
Em uma grande vitória para aqueles que soaram o alarme sobre o viés da IA, o Escritório de Política Científica e Tecnológica da Casa Branca (OSTP) divulgou recentemente o que chama de plano para o projeto de lei.
Depois de reunir informações de grandes empresas de tecnologia, startups de auditoria de IA, especialistas em tecnologia, pesquisadores, grupos de direitos civis e o público em geral durante um período de um ano, o OSTP estabeleceu cinco categorias de proteção, juntamente com etapas que os criadores devem seguir ao desenvolver sua tecnologia de IA:
Os algoritmos de IA devem ser seguros e eficazes. Como: Testando e monitorando minuciosamente os sistemas para garantir que eles não sejam abusados.
Os seres humanos não devem ser discriminados por algoritmos injustos. Como: Implementando medidas proativas com relatórios contínuos e transparentes.
A IA deve permitir às pessoas o direito de controlar como seus dados são usados. Como: Dando aos cidadãos acesso a essas informações.
Todo mundo merece saber quando uma IA está sendo usada e quando está tomando uma decisão sobre ela. Como: Fornecendo documentos de acompanhamento que descrevem o impacto exato que esses sistemas têm sobre os cidadãos.
As pessoas devem poder optar por não tomar decisões automatizadas e conversar com um humano ao encontrar um problema. Como: Ao garantir que a opção de exclusão seja claramente disponibilizada.
Quando podemos esperar que essas leis nos protejam?
Infelizmente, a resposta não é clara. Ao contrário da mais conhecida Bill of Rights, que compreende as dez primeiras emendas à Constituição dos EUA, a versão da IA ainda não se tornou uma legislação vinculante (daí o termo “blueprint”). Isso ocorre porque o OSTP é um órgão da Casa Branca que aconselha o presidente, mas não pode avançar leis reais.
Isso significa que a adesão às recomendações apresentadas no white paper não vinculativo (conforme descrito no modelo) é totalmente opcional. É por isso que a versão de IA do Bill deve ser vista mais como uma ferramenta educacional que descreve como agências governamentais e empresas de tecnologia devem tornar seus sistemas de IA seguros para que seus algoritmos evitem vieses no futuro.
Então, a IA será completamente imparcial?
Um sistema de IA é tão bom quanto a qualidade de seus dados de entrada. Desde que os criadores sigam as recomendações estabelecidas no Blueprint e desenvolvam conscientemente sistemas de IA com princípios de IA responsáveis em mente, o viés de IA pode tecnicamente se tornar uma coisa do passado.
No entanto, embora o Blueprint seja um passo na direção certa para que isso aconteça, os especialistas enfatizam que, até que a Declaração de Direitos da IA seja aplicada como lei, haverá muitas brechas que permitirão que o viés da IA não seja detectado.
“Embora este Blueprint não nos dê tudo o que temos defendido, é um roteiro que deve ser aproveitado para maior consentimento e equidade”, diz a Algorithmic Justice League, uma organização dedicada a advogar contra a discriminação baseada em IA. “ Em seguida, precisamos que os legisladores desenvolvam políticas governamentais que transformem esse projeto em lei.”
Nesta fase, ninguém sabe quando e quanto tempo pode levar para que isso aconteça. Meredith Broussard, professora de jornalismo de dados da NYU e autora de Artificial Unintelligence , acredita que será uma “situação de cenoura e pau”.
Ela explica: “Vai haver um pedido de cumprimento voluntário. E então veremos que isso não funciona – e, portanto, haverá necessidade de fiscalização.”
Esperamos que ela esteja aprontando alguma. A humanidade merece tecnologia que proteja nossos direitos humanos.