Declaração de Direitos da Inteligência Artificial

Com um nome como AI Bill of Rights, você seria perdoado por pensar que robôs e máquinas estão sendo dotados da mesma proteção ética que os seres humanos.

Na realidade, no entanto, a AI Bill of Rights visa proteger o público dos danos que os sistemas automatizados podem produzir por meio de seus vários algoritmos – um fenômeno conhecido como viés de inteligência artificial ou viés de IA.

 

O que é viés de IA? 

 

Graças aos avanços na ciência da computação, os desenvolvedores têm criado algoritmos tão poderosos que podem nos ajudar a tomar decisões com mais eficiência – desde aprovações de empréstimos, contratações e elegibilidade para liberdade condicional até atendimento ao paciente. No entanto, o que alguns desses criadores não previram é que muitas dessas decisões feitas por máquinas refletiriam preconceitos humanos. 

 

Imagine isso:

 

Uma mulher se candidata a um emprego, mas sua inscrição é rejeitada automaticamente porque um algoritmo de recrutamento está configurado para favorecer os currículos dos homens.

A oferta de um casal latino para a casa dos seus sonhos é recusada repetidamente por causa de um algoritmo de aprovação de hipotecas, apesar de serem pessoas com altos salários e uma boa entrada.

Um adolescente negro que é pego roubando é rotulado como um futuro infrator de alto risco por um algoritmo usado na sentença do tribunal, enquanto um homem branco que rouba algo do mesmo valor é classificado como de baixo risco. 

Os exemplos acima são exemplos da vida real de viés de IA encontrados embutidos nos sistemas algorítmicos de uma grande empresa de tecnologia , os maiores credores hipotecários do país e o sistema judicial, respectivamente.

 

Por que o viés de IA ocorre?

 

Embora o viés na IA geralmente não seja deliberado, é uma realidade. E, embora não haja uma resposta definitiva sobre o que exatamente causa o viés da IA, as fontes conhecidas por contribuir incluem: 

 

Viés do criador: como algoritmos e softwares são projetados para imitar humanos descobrindo certos padrões, às vezes eles podem adotar os preconceitos inconscientes de seus criadores. 

 

Viés orientado por dados: Algumas IAs são treinadas para aprender observando padrões nos dados. Se um determinado conjunto de dados mostrar viés, a IA – sendo um bom aprendiz – também o fará.

 

Viés por meio da interação: 'Tay', o chatbot da Microsoft baseado no Twitter, é um excelente exemplo. Projetado para aprender com suas interações com os usuários, Tay, infelizmente, viveu apenas 24 horas antes de ser desligado depois de se tornar agressivamente racista e misógino.

 

Viés latente: é quando um algoritmo correlaciona incorretamente ideias com estereótipos de gênero e raça. Por exemplo, se a IA correlaciona o termo “médico” com homens, apenas porque figuras masculinas aparecem na maioria das imagens de banco de imagens.

 

Viés de seleção: se os dados usados ​​para treinar o algoritmo super-representam uma população, é provável que ele funcione de forma mais eficaz para essa população em detrimento de outros grupos demográficos (como visto com o casal latino acima). 

 

Nos últimos anos, ficou mais claro que as máquinas criadas para agilizar o processo de tomada de decisão humana também estão aumentando as questões éticas generalizadas. 

 

Não surpreendentemente, isso resultou em pedidos para que o governo dos EUA adote uma declaração de direitos algorítmica que proteja os direitos civis e as liberdades do povo americano – um pedido que eles finalmente atenderam.

 

Como a Declaração de Direitos da IA ​​combaterá o preconceito?

 

Em uma grande vitória para aqueles que soaram o alarme sobre o viés da IA, o Escritório de Política Científica e Tecnológica da Casa Branca (OSTP) divulgou recentemente o que chama de plano para o projeto de lei. 

 

Depois de reunir informações de grandes empresas de tecnologia, startups de auditoria de IA, especialistas em tecnologia, pesquisadores, grupos de direitos civis e o público em geral durante um período de um ano, o OSTP estabeleceu cinco categorias de proteção, juntamente com etapas que os criadores devem seguir ao desenvolver sua tecnologia de IA:

 

Os algoritmos de IA devem ser seguros e eficazes. Como: Testando e monitorando minuciosamente os sistemas para garantir que eles não sejam abusados.

Os seres humanos não devem ser discriminados por algoritmos injustos. Como: Implementando medidas proativas com relatórios contínuos e transparentes.

A IA deve permitir às pessoas o direito de controlar como seus dados são usados. Como: Dando aos cidadãos acesso a essas informações.

Todo mundo merece saber quando uma IA está sendo usada e quando está tomando uma decisão sobre ela. Como: Fornecendo documentos de acompanhamento que descrevem o impacto exato que esses sistemas têm sobre os cidadãos. 

As pessoas devem poder optar por não tomar decisões automatizadas e conversar com um humano ao encontrar um problema. Como: Ao garantir que a opção de exclusão seja claramente disponibilizada.

 

Quando podemos esperar que essas leis nos protejam?

 

Infelizmente, a resposta não é clara. Ao contrário da mais conhecida Bill of Rights, que compreende as dez primeiras emendas à Constituição dos EUA, a versão da IA ​​ainda não se tornou uma legislação vinculante (daí o termo “blueprint”). Isso ocorre porque o OSTP é um órgão da Casa Branca que aconselha o presidente, mas não pode avançar leis reais.

 

Isso significa que a adesão às recomendações apresentadas no white paper não vinculativo (conforme descrito no modelo) é totalmente opcional. É por isso que a versão de IA do Bill deve ser vista mais como uma ferramenta educacional que descreve como agências governamentais e empresas de tecnologia devem tornar seus sistemas de IA seguros para que seus algoritmos evitem vieses no futuro. 

 

Então, a IA será completamente imparcial?

 

Um sistema de IA é tão bom quanto a qualidade de seus dados de entrada. Desde que os criadores sigam as recomendações estabelecidas no Blueprint e desenvolvam conscientemente sistemas de IA com princípios de IA responsáveis ​​em mente, o viés de IA pode tecnicamente se tornar uma coisa do passado. 

 

No entanto, embora o Blueprint seja um passo na direção certa para que isso aconteça, os especialistas enfatizam que, até que a Declaração de Direitos da IA ​​seja aplicada como lei, haverá muitas brechas que permitirão que o viés da IA ​​não seja detectado. 

 

“Embora este Blueprint não nos dê tudo o que temos defendido, é um roteiro que deve ser aproveitado para maior consentimento e equidade”, diz a Algorithmic Justice League, uma organização dedicada a advogar contra a discriminação baseada em IA. “ Em seguida, precisamos que os legisladores desenvolvam políticas governamentais que transformem esse projeto em lei.”

 

Nesta fase, ninguém sabe quando e quanto tempo pode levar para que isso aconteça. Meredith Broussard, professora de jornalismo de dados da NYU e autora de Artificial Unintelligence , acredita que será uma “situação de cenoura e pau”. 

 

Ela explica: “Vai haver um pedido de cumprimento voluntário. E então veremos que isso não funciona – e, portanto, haverá necessidade de fiscalização.”

 

Esperamos que ela esteja aprontando alguma. A humanidade merece tecnologia que proteja nossos direitos humanos.


Strong

5178 ব্লগ পোস্ট

মন্তব্য