Aprendizado de máquina. E os seus desafios

Que surpresas o aprendizado de máquina nos reserva? É difícil enganar uma máquina? E vamos acabar com a Skynet e a ascensão das máquinas? Vamos dar uma olhada.

O futuro provavelmente será incrível, mas, no momento, a inteligência artificial (IA) levanta algumas questões e, na maioria das vezes, elas têm a ver com moralidade e ética. Como o aprendizado de máquina já nos surpreendeu? Você pode enganar uma máquina e, em caso afirmativo, quão difícil é? E tudo isso vai acabar com a Skynet e a ascensão das máquinas? Vamos dar uma olhada.

 

Inteligência artificial forte e fraca

 

Primeiro, precisamos diferenciar entre dois conceitos: IA forte e fraca. A IA forte é uma máquina hipotética que é capaz de pensar e está ciente de sua própria existência. Ele pode resolver não apenas tarefas personalizadas, mas também aprender coisas novas.

 

Já existe IA fraca. Está em aplicativos feitos para resolver problemas específicos, como reconhecimento de imagem, direção de carro, jogar Go e assim por diante. IA fraca é o que chamamos de "aprendizado de máquina".

 

Não sabemos ainda se uma IA forte pode ser inventada. De acordo com pesquisas de especialistas, teremos que esperar mais 45 anos. Isso realmente significa "algum dia". Por exemplo, os especialistas também dizem que a energia de fusão será comercializada em 40 anos - que é exatamente o que eles disseram há 50 anos.

 

O que poderia dar errado?

 

Ainda não está claro quando a IA forte será desenvolvida, mas a IA fraca já está aqui, trabalhando duro em muitas áreas. O número dessas áreas cresce a cada ano. O aprendizado de máquina nos permite lidar com tarefas práticas sem uma programação óbvia; ele aprende com exemplos. Para obter mais detalhes, consulte “ Como funciona o aprendizado de máquina, simplificado ”.

 

[Mergulhe fundo no mundo da tecnologia e cadastre-se no Avance Network a verdadeira comunidade criptografada]

 

Ensinamos máquinas a resolver problemas concretos, então o modelo matemático resultante - o que chamamos de algoritmo de “aprendizado” - não pode desenvolver repentinamente um desejo ardente de derrotar (ou salvar) a humanidade. Em outras palavras, não devemos ter medo de uma situação da Skynet de IA fraca. Mas algumas coisas ainda podem dar errado.

 

Más intenções

 

Se ensinarmos um exército de drones a matar pessoas usando o aprendizado de máquina, os resultados podem ser éticos?

 

Um pequeno escândalo estourou no ano passado em torno deste mesmo tópico. O Google está desenvolvendo software usado para um projeto militar chamado Projeto Maven que envolve drones. No futuro, pode ajudar a criar sistemas de armas completamente autônomos.

 

Como resultado, 12 funcionários do Google renunciaram em protesto e mais 4.000 assinaram uma petição solicitando que a empresa abandonasse o contrato com os militares. Mais de 1.000 cientistas renomados nas áreas de IA, ética e TI escreveram uma carta aberta ao Google, pedindo à empresa que abandonasse o projeto e apoiasse um acordo internacional que proibiria armas autônomas.

 

Viés do desenvolvedor

 

Mesmo que os desenvolvedores de algoritmos de aprendizado de máquina não tenham a intenção de prejudicar, muitos deles ainda querem ganhar dinheiro - ou seja, seus algoritmos são criados para beneficiar os desenvolvedores, não necessariamente para o bem da sociedade. Alguns algoritmos médicos podem recomendar tratamentos caros sobre os tratamentos com os melhores resultados para o paciente, por exemplo.

 

Às vezes, a própria sociedade não tem interesse em que um algoritmo se torne um modelo moral. Por exemplo, há um meio-termo entre a velocidade do tráfego e a taxa de mortalidade por acidentes de carro. Poderíamos programar carros autônomos para dirigir a não mais de 24 km / h, o que quase garantiria zerar o número de fatalidades nas estradas, mas anularia outros benefícios de usar um carro.

 

Os parâmetros do sistema nem sempre incluem a ética

 

Os computadores, por padrão, não sabem nada sobre ética. Um algoritmo pode montar um orçamento nacional com o objetivo de "maximizar o PIB / produtividade do trabalho / expectativa de vida", mas sem limitações éticas programadas no modelo, ele pode eliminar orçamentos para escolas, hospícios e meio ambiente, porque não aumentar diretamente o PIB.

 

Com um objetivo mais amplo, pode decidir aumentar a produtividade, livrando-se de quem não consegue trabalhar.

 

A questão é que as questões éticas devem ser incorporadas desde o início.

 

Relatividade ética

 

A ética muda com o tempo e às vezes rapidamente. Por exemplo, as opiniões sobre questões como direitos LGBT e casamento inter-racial ou entre casais podem mudar significativamente dentro de uma geração.

 

A ética também pode variar entre grupos dentro do mesmo país, quanto mais em países diferentes. Por exemplo, na China, o uso de reconhecimento facial para vigilância em massa se tornou a norma. Outros países podem ver esta questão de forma diferente, e a decisão pode depender da situação.

 

O clima político também é importante. Por exemplo, a guerra contra o terrorismo mudou de maneira significativa - e incrivelmente rápida - algumas normas e ideais éticos em muitos países.

 

O aprendizado de máquina muda os humanos

 

Os sistemas de aprendizado de máquina - apenas um exemplo de IA que afeta as pessoas diretamente - recomendam novos filmes para você com base em suas avaliações de outros filmes e depois de comparar suas preferências com as de outros usuários. Alguns sistemas estão ficando muito bons nisso.

 

Um sistema de recomendação de filmes muda suas preferências ao longo do tempo e as restringe. Sem ele, você ocasionalmente enfrentaria o horror de assistir a filmes ruins e filmes de gêneros indesejados. Usando a IA, cada filme atinge o ponto certo. No final, você para de investigar e apenas consome o que é alimentado para você.

 

Também é interessante que nem percebemos como somos manipulados por algoritmos. O exemplo do filme não é tão assustador, mas considere as notícias e a propaganda.

 

Correlações falsas

 

Uma falsa correlação ocorre quando coisas completamente independentes umas das outras exibem um comportamento muito semelhante, o que pode criar a ilusão de que estão de alguma forma conectadas. Por exemplo, você sabia que o consumo de margarina nos EUA tem forte correlação com a taxa de divórcio no Maine?

 

Claro, pessoas reais, confiando em sua experiência pessoal e inteligência humana, reconhecerão instantaneamente que qualquer conexão direta entre os dois é extremamente improvável. Um modelo matemático não pode possuir tal conhecimento - ele simplesmente aprende e generaliza os dados.

 

Um exemplo bem conhecido é um programa que classifica os pacientes de acordo com a urgência com que precisam de ajuda médica e conclui que os pacientes com asma que tiveram pneumonia não precisam de ajuda tanto quanto os pacientes com pneumonia sem asma. O programa analisou os dados e concluiu que os pacientes com asma corriam menos risco de morrer e, portanto, não deveriam ser uma prioridade. Na verdade, suas taxas de mortalidade eram muito baixas porque eles sempre recebiam ajuda urgente em instalações médicas devido aos altos riscos inerentes à sua condição.

 

Loops de feedback

 

Os loops de feedback são ainda piores do que falsas correlações. Um ciclo de feedback é uma situação em que as decisões de um algoritmo afetam a realidade, que por sua vez convence o algoritmo de que sua conclusão está correta.

 

Por exemplo, um programa de prevenção ao crime na Califórnia sugeriu que a polícia deveria enviar mais policiais para os bairros afro-americanos com base na taxa de crimes - o número de crimes registrados. Porém, mais carros de polícia em um bairro levaram os residentes locais a relatar crimes com mais frequência (alguém estava ali para denunciá-los), o que levou os policiais a escreverem mais protocolos e relatórios, o que resultou em um índice de criminalidade mais alto - o que significa que mais policiais tiveram para ser enviado para a área.

 

Dados de referência "contaminados" ou "envenenados"

 

Os resultados do aprendizado do algoritmo dependem em grande parte dos dados de referência, que formam a base do aprendizado. Os dados podem acabar sendo ruins e distorcidos, entretanto, por acidente ou por intenção maliciosa de alguém (neste último caso, geralmente é chamado de “envenenamento”).

 

Aqui está um exemplo de problemas não intencionais com dados de referência. Se os dados usados ​​como amostra de treinamento para um algoritmo de contratação foram obtidos de uma empresa com práticas racistas de contratação, o algoritmo também será racista.

 

A Microsoft certa vez ensinou um chatbot a se comunicar no Twitter, permitindo que qualquer pessoa conversasse com ele. Eles tiveram que encerrar o projeto em menos de 24 horas porque usuários de Internet gentis rapidamente ensinaram o bot a xingar e recitar o Mein Kampf.

 

Aqui está um exemplo de dados de aprendizado de máquina sendo envenenados. Um modelo matemático em um laboratório de análise de vírus de computador processa uma média de 1 milhão de arquivos por dia, tanto limpos quanto prejudiciais. O cenário de ameaças está sempre mudando, então as mudanças de modelo são entregues aos produtos instalados no cliente na forma de atualizações do banco de dados de antivírus.

 

Um hacker pode continuar gerando arquivos maliciosos, muito semelhantes aos limpos, e enviá-los para o laboratório. Essa ação apaga gradualmente a linha entre arquivos limpos e prejudiciais, degradando o modelo e talvez, eventualmente, desencadeando um falso positivo .

 

Trapaça

 

Mesmo um modelo matemático que funcione bem - aquele que se baseia em dados confiáveis ​​- ainda pode ser enganado, se alguém souber como funciona. Por exemplo, um grupo de pesquisadores descobriu como enganar um algoritmo de reconhecimento facial usando óculos especiais que introduziriam distorções mínimas na imagem e, assim, alterariam completamente o resultado.

 

É claro que passaremos a confiar cada vez mais no aprendizado de máquina, simplesmente porque ele gerenciará muitas tarefas melhor do que as pessoas. Portanto, é importante manter essas falhas e possíveis problemas em mente, tentar antecipar todos os problemas possíveis no estágio de desenvolvimento e lembrar de monitorar o desempenho dos algoritmos caso algo dê errado.

 

 

O Avance Network é uma comunidade fácil de usar que fornece segurança de primeira e não requer muito conhecimento técnico. Com uma conta, você pode proteger sua comunicação e seus dispositivos. O Avance Network não mantém registros de seus dados; portanto, você pode ter certeza de que tudo o que sai do seu dispositivo chega ao outro lado sem inspeção.


Strong

5136 Blog Postagens

Comentários