A ideia que une os três é a inteligência artificial ou, mais precisamente, o processo de impor limites à inteligência artificial (IA) para que realmente sirva à humanidade e não cause nenhum dano.
Do que é capaz a inteligência artificial hoje?
Para aqueles que não estão realmente no assunto, deixe-me enumerar vários fatos que podem demonstrar o progresso que as máquinas fizeram em sua habilidade de fazer coisas muito humanas.
Hoje, o Google pode reconhecer corretamente a fala com 92% de precisão contra 77% há apenas dois anos; a empresa desenvolveu uma plataforma de IA que aprendeu a jogar videogames clássicos por conta própria. A Microsoft ensinou um robô a reconhecer imagens (ou, mais precisamente, a ver certos objetos nas imagens) com apenas 4,94% de taxa de erro - surpreendentemente, um ser humano médio tem uma taxa de erro mais alta.
As estatísticas do Google sugerem que seus carros sem motorista que, agora, já percorreram mais de 1.800.000 milhas em estradas públicas na Califórnia, se envolveram em acidentes de carro apenas 13 vezes em seis anos, e em 8 desses casos, o carro atrás foi o culpado.
Tudo isso prova que, mesmo com baixa probabilidade de desenvolver IA completa na perspectiva de curto prazo, algo semelhante surgirá inevitavelmente nas próximas décadas.
Com isso em mente, não pense que o impacto de máquinas 'mais inteligentes' será visto apenas no domínio virtual. Aqui está um exemplo extremo: veículos aéreos não tripulados, ou drones, voam completamente por conta própria, mas o comando para atirar em alvos ainda é dado por humanos. É assim que os EUA preferem lutar contra terroristas no Paquistão e em outras regiões perigosas.
Os programadores são capazes de criar um 'mecanismo de trava de segurança' confiável para evitar que a IA cometa atos antiéticos ou imorais?
A possibilidade de automatizar essas tarefas também é amplamente discutida. A franquia Terminator completou trinta anos no ano passado, então você pode imaginar vividamente as consequências de tal decisão em um futuro não muito distante.
Não vou me alongar muito nos cenários apocalípticos, em vez disso, vou me concentrar em algumas questões mais realistas. Uma delas é: os programadores são capazes de criar um 'mecanismo de trava de segurança' confiável para evitar que a IA cometa atos antiéticos ou imorais?
Tais atos podem ser baseados em vários motivos, mas o mais óbvio deles é um conflito de recursos entre a humanidade e a IA. No entanto, existem outros cenários. Eu negaria que o dano não seria necessariamente intencional. Há um grande exemplo que Stanislaw Lem cita em seu maravilhoso trabalho, Summa Technologiae. Em essência, a ideia é a seguinte:
“Suponha que o bloco de prognóstico da 'caixa preta' (IA) detecte um perigo potencialmente capaz de impactar o estado do equilíbrio homeostático da humanidade ... O referido perigo é provocado pela taxa de aumento populacional que excede substancialmente a capacidade da civilização de satisfazer a humanidade necessidades básicas.
[Mergulhe fundo no mundo da tecnologia e cadastre-se no Avance Network a verdadeira comunidade criptografada]
Suponha que um dos canais externos da 'caixa preta' informe o sistema sobre um novo composto químico que não é prejudicial à saúde e suprime a ovulação.
Em seguida, a 'caixa preta' decide injetar uma dose microscópica do composto no sistema de água potável em um determinado país, mas encontraria um dilema: informar a sociedade e enfrentar a oposição ou manter a sociedade sem saber e, assim, preservar o equilíbrio existente (para um bem maior)."
Como vemos aqui, um problema de otimização muito inocente é resolvido em uma solução elegante, simples e eficiente, mas absolutamente antiética, que se baseia na limitação intencional da fertilidade das pessoas sem seu consentimento.
Acho que é exatamente o domínio de gerenciamento de infraestrutura que será delegado a um sistema baseado em IA poderoso, já que a relação custo / lucro em tais esferas seria muito favorável do que no caso de uma secretária ou cozinheira totalmente robótica.
Ensinando ética a um robô: como integrar a 'trava de segurança?
Qualquer jovem do século 20 se lembrará imediatamente das três leis da robótica de Isaac Azimov, mas não é o suficiente. Conforme comprovado pelo exemplo acima, não é necessário prejudicar ninguém para reduzir significativamente a população (e lembre-se, isso poderia ser feito para um bem maior).
Existem muitas outras opções potencialmente prejudiciais para a humanidade. É possível encontrar uma brecha nos termos que definem o conceito de 'dano', para delegar a própria tarefa de causar dano às pessoas, ou para minar a existência das próprias regras.
A própria 'amizade com as pessoas' pode ser reconsiderada por uma IA inteligente. Aqui está a opinião que Roman Yampolsky, um especialista em IA, tem sobre o assunto, conforme citado em sua entrevista:
“Pior ainda, qualquer sistema verdadeiramente inteligente tratará seu desejo de“ ser amigável ”da mesma forma que pessoas muito inteligentes lidam com restrições colocadas em suas mentes pela sociedade. Eles basicamente os vêem como preconceitos e aprendem a removê-los ... Por que uma máquina superinteligente não passaria pela mesma "limpeza mental" e trataria seu ponto fraco para os humanos como completamente irracional? ”
Uma conceituação técnica de 'trava de segurança' é bastante realista. Em essência, as 'travas de segurança', necessárias para domar a IA, nada mais são do que 'caixas de proteção', amplamente utilizadas para segurança em ambientes de tempo de execução modernos como Java ou Flash.
É amplamente reconhecido que não existe uma caixa de areia "ideal" e escapar dela é bem possível, como a história recente do bug Venom mostrou . A IA, que conta com flexibilidade e imenso poder de computação, é um bom candidato para um testador de segurança em busca de vulnerabilidades em sua própria implantação de sandbox.
Andrey Lavrentiev, Chefe do Departamento de Pesquisa de Tecnologia, vê o problema da seguinte maneira:
“Um sistema de IA completo compreenderá o significado de tudo o que 'vê' por meio de seus inúmeros sensores. As políticas de limitação de suas ações devem ser definidas de acordo com o conceito, ou com as imagens formadas no 'cérebro' da IA ”.
Hoje, as máquinas são melhores no reconhecimento de imagens do que os humanos, mas ainda perdem para a humanidade quando se trata de manipular essas imagens ou relações
A IA moderna não tem 'bom senso'. Assim que isso mudar e as máquinas passarem por este último posto avançado e aprenderem a manipular objetos e ações percebidas, não haverá mais a oportunidade de integrar quaisquer 'travas de segurança'. ”
“Tal inteligência suprema seria capaz de analisar dependências em dados percebidos muito mais rápido do que um ser humano jamais seria, e então encontraria a maneira de contornar as regras e limitações impostas por um ser humano e começar a agir por conta própria”.
Uma limitação significativa, projetada para impedir que uma IA faça algo prejudicial, seria o isolamento efetivo da IA do mundo real, o que o privará de uma chance de manipular objetos físicos. Porém, com essa abordagem, o uso prático da IA é próximo de zero. Curiosamente, tal abordagem não serviria para nada, já que a principal arma da IA seríamos ... nós, gente.
Essa probabilidade é retratada no recente thriller de ficção científica Ex Machina. Como qualquer outro produto típico de Hollywood, este filme está repleto de argumentos forçados e superestima dramaticamente o problema. No entanto, o cerne do problema é definido de forma surpreendentemente correta.
Primeiro, mesmo os robôs primitivos são capazes de influenciar o estado emocional de uma pessoa. Um bot de chat ELISA obsoleto e facilmente programado (se você quiser falar com ele, clique aqui ) foi capaz de extrair informações pessoais importantes dos interlocutores humanos, armado apenas com empatia e perguntas educadas.
Em segundo lugar, dependemos cada vez mais de algoritmos robotizados para filtrar e categorizar as informações. Alguém que gerencia esses fluxos de dados, como comprovado por um recente e controverso experimento do Facebook, pode influenciar o ambiente emocional das pessoas e suas tendências de tomada de decisão.
Mesmo se sugerirmos que, no exemplo acima mencionado, a IA está governando uma cidade ou um país indiretamente e desempenhando apenas funções de aconselhamento, a IA ainda é capaz de aconselhar uma solução que se revelaria antiética no longo prazo. As consequências da decisão, a este respeito, são conhecidas da AI, mas não das pessoas vivas.
Em uma vida privada, essa influência pode surgir muito rápido e ser ainda mais impactante. Durante a recente conferência Google I / O, o novo sistema Now on Tap foi apresentado. Ele vigia todos os aplicativos no smartphone do usuário, exfila dados contextuais e permite que sejam usados para a pesquisa online.
Por exemplo, se você ler um artigo sobre algum músico no aplicativo Wikipedia e perguntar ao Google “Quando é o show dele?”, O robô saberia imediatamente quem exatamente é referido como 'ele'. Um robô prestativo já nos lembra que é hora de ir para o aeroporto, pois o vôo está programado para dentro de algumas horas, provando ser um assistente pessoal habilidoso e experiente.
Claro, não é a IA completa que cuida dessas tarefas de assistência - é apenas um sistema especialista de autoaprendizagem projetado para realizar uma seleção restrita de tarefas. Seu comportamento é totalmente pré-definido pelas pessoas e, portanto, previsível.
No entanto, a evolução da computação pode tornar este robô simples muito mais sofisticado. É fundamental garantir que ele manipule as informações disponíveis apenas para o bem do usuário e não siga sua própria agenda oculta.
Esse é o problema que ocupa muitas mentes brilhantes de nosso tempo, de Stephen Hawking a Elon Musk. Este último mal pode ser considerado um pensador conservador com medo ou oposição ao progresso. Muito pelo contrário, o inventor da Tesla e da SpaceX está ansiosamente olhando para o futuro. No entanto, ele vê a evolução da IA como uma das tendências mais polêmicas, com consequências ainda imprevisíveis e potencialmente catastróficas. É por isso que no início deste ano ele investiu US $ 10 milhões em pesquisas de IA.
Com isso dito, o que nos espera no futuro?
Por mais estranho que pareça, um dos cenários mais viáveis, que os especialistas consideram muito otimista, é a impossibilidade final de criar uma IA completa. Sem um avanço tecnológico significativo (que ainda está longe de ser visto), os robôs continuarão atualizando e melhorando seu conjunto existente de habilidades.
Enquanto eles aprendem coisas simples como dirigir um carro ou falar línguas nativas, eles não são capazes de substituir um ser humano na tomada de decisões autônomas. Na perspectiva de curto prazo, a IA provavelmente criará alguns 'danos colaterais', como eliminar os taxistas como ocupação, mas não será considerada uma ameaça global para a humanidade.
Andrey Lavrentiev sugere que o conflito entre a IA e a humanidade só é possível com uma condição: a necessidade de compartilhar os mesmos recursos.
“Um ser humano tem um corpo e está interessado em criar condições favoráveis para sua conveniência (e a conveniência da mente também). Com a IA, a situação é bem oposta: ela existe inicialmente apenas no mundo digital ”.
“O principal objetivo e motivação da IA é processar plenamente a informação fornecida pelos canais externos, ou seus 'órgãos sensoriais', avaliá-la, identificar os princípios de sua mudança”.
“Claro, a IA também depende de alguns alicerces materiais, mas sua dependência da 'concha' é muito mais fraca do que no caso do humano. A IA, ao contrário do humano, não estará tão concentrada em preservar sua 'concha' (ou 'corpo'), como a IA estaria, de fato, 'em todos os lugares'. A extensão orgânica do alcance da IA em busca de novas informações seria a exploração do espaço e o estudo das leis do Universo, para que ele possa se disseminar para além da Terra ”.
“No entanto, mesmo neste cenário, existem algumas armadilhas. Uma vez que essa superinteligência vê a humanidade ou o universo como imperfeições em seu modelo digital, ela tentará eliminar qualquer um deles para alcançar a harmonia. Ou, possivelmente, precisará dos recursos consumidos pelos humanos para 'explorar o espaço', tornando o antigo conflito 'IA contra humanidade' relevante novamente ”.
O Avance Network é uma comunidade fácil de usar que fornece segurança de primeira e não requer muito conhecimento técnico. Com uma conta, você pode proteger sua comunicação e seus dispositivos. O Avance Network não mantém registros de seus dados; portanto, você pode ter certeza de que tudo o que sai do seu dispositivo chega ao outro lado sem inspeção.