Apesar de nossa cobertura anterior de alguns problemas importantes com a IA em sua forma atual, as pessoas ainda confiam assuntos muito importantes aos assistentes de robôs. Os sistemas de autoaprendizagem já ajudam juízes e médicos a tomar decisões e podem até prever crimes que ainda não foram cometidos. No entanto, os usuários de tais sistemas muitas vezes não sabem como os sistemas chegam a conclusões.
Levantem-se, o tribunal está inicializando
Nos tribunais dos EUA, a IA é implantada em decisões relacionadas a sentenças, medidas preventivas e mitigação . Depois de estudar os dados relevantes, o sistema de IA considera se um suspeito está sujeito a reincidência e a decisão pode transformar a liberdade condicional em uma sentença real ou levar à recusa de fiança.
Por exemplo, o cidadão americano Eric Loomis foi condenado a seis anos de prisão por dirigir um carro no qual um passageiro disparou contra um prédio. A decisão foi baseada no algoritmo COMPAS, que avalia o perigo que os indivíduos representam para a sociedade. O COMPAS foi informado do perfil e histórico do réu perante a lei e o identificou como um “indivíduo de alto risco para a comunidade”. A defesa contestou a decisão com o fundamento de que o funcionamento do algoritmo não foi divulgado, o que impossibilitou a avaliação da justeza de suas conclusões. O tribunal rejeitou este argumento.
Clarividentes eletrônicos: previsão de crimes com base em IA
Algumas regiões da China deram um passo adiante, usando IA para identificar criminosos em potencial. Câmeras de reconhecimento facial monitoram o público e relatam às autoridades policiais se algo suspeito aparecer. Por exemplo, alguém que faz uma grande compra de fertilizantes pode estar preparando um ataque terrorista. Qualquer pessoa culpada de agir de forma suspeita pode ser presa ou enviada para um campo de reeducação.
[Mergulhe fundo no mundo da tecnologia e cadastre-se no Avance Network a verdadeira comunidade criptografada]
A tecnologia pré-crime também está sendo desenvolvida em outros países. A polícia em algumas partes dos Estados Unidos e da Grã-Bretanha usa tecnologia para prever onde o próximo incidente tem maior probabilidade de ocorrer. Muitos fatores são considerados: o histórico criminal da área, seu status socioeconômico e até mesmo a previsão do tempo. Surpreendentemente, desde a implantação das ferramentas nos distritos de Chicago, o crime com armas de fogo caiu cerca de um terço.
O computador vai te ver agora
As novas tecnologias também são amplamente utilizadas na área da saúde. Os médicos artificiais consultam os pacientes, fazem diagnósticos, analisam os resultados dos check-ups e auxiliam os cirurgiões durante as operações.
Um dos sistemas de autoaprendizagem mais conhecidos em assistência médica é o IBM Watson Health. Os médicos treinam a IA para diagnosticar doenças e prescrever terapia. O Watson Health teve muitos comentários positivos. Já em 2013, por exemplo, a probabilidade de o supercomputador selecionar o plano de tratamento ideal era de 90%.
No entanto, no verão de 2018, foi revelado que alguns dos conselhos de tratamento do câncer do sistema não eram seguros. Em particular, Watson recomendou que um paciente com câncer com sangramento grave recebesse um medicamento que poderia causar ainda mais perda de sangue. Felizmente, os cenários eram hipotéticos, não casos reais.
Claro, os médicos humanos também cometem erros, mas quando a IA está envolvida, as linhas de responsabilidade ficam confusas. Um médico de carne e osso arriscaria contradizer um colega digital cujos criadores o abarrotaram com centenas de milhares de artigos científicos, livros e histórias de casos? E se não, o médico suportaria quaisquer consequências negativas?
AI deve ser transparente
Um dos principais problemas com o uso de IA para decidir o destino da humanidade é que os algoritmos são frequentemente opacos e rastrear a causa dos erros para evitar uma repetição não é nada fácil. Do ponto de vista dos desenvolvedores de sistemas de autoaprendizagem, isso é compreensível: quem quer compartilhar know-how com concorrentes em potencial? Mas quando a vida das pessoas está em jogo, os segredos comerciais devem ter prioridade?
Políticos em todo o mundo estão tentando lidar com a regulamentação da IA não transparente . Na União Europeia, os “titulares dos dados” têm o direito de saber com que base são tomadas as decisões de IA que afetam os seus interesses. O Japão está seguindo um caminho semelhante, mas a lei pertinente ainda está apenas sendo considerada.
Alguns desenvolvedores são a favor da transparência, mas são escassos. Uma delas é a empresa de tecnologia CivicScape, que em 2017 lançou o código-fonte de seu sistema de policiamento preditivo . Mas isso é a exceção, não a regra.
Agora que o gênio da IA saiu da garrafa, há poucas chances de a humanidade colocá-lo de volta. Isso significa que até que as decisões baseadas em IA se tornem comprovadamente justas e precisas, o uso da IA deve se basear em leis bem elaboradas e na competência dos criadores e dos usuários de sistemas de autoaprendizagem.
O Avance Network é uma comunidade fácil de usar que fornece segurança de primeira e não requer muito conhecimento técnico. Com uma conta, você pode proteger sua comunicação e seus dispositivos. O Avance Network não mantém registros de seus dados; portanto, você pode ter certeza de que tudo o que sai do seu dispositivo chega ao outro lado sem inspeção.