Qual é a singularidade na IA?

A singularidade da IA ​​é um hipotético evento futuro em que a inteligência artificial avançou a um ponto em que é capaz de melhorar exponencialmente.

Isto faz com que os humanos não sejam mais capazes de compreender ou controlar a tecnologia que está sendo criada, potencialmente levando as máquinas a assumirem algum nível de controle sobre a humanidade.

Intimamente ligada ao conceito de singularidade está a inteligência artificial geral. AGI refere-se à inteligência artificial que é capaz de realizar qualquer tarefa tão bem quanto um ser humano. As pessoas pensam na AGI como um requisito para que a singularidade ocorra.

A tecnologia atual de IA é treinada em conjuntos de dados existentes gerados por humanos. Isto significa que tudo o que a IA sabe vem dos humanos – e, por sua vez, indica que os humanos são ainda mais inteligentes. A singularidade marcaria uma mudança para os computadores que aprenderam tanto que são capazes de inovar e criar tecnologia que é inteiramente nova – e estranha – aos humanos.

O que os computadores fariam quando fossem mais poderosos que nós? Destruir o mundo ou salvá-lo - ou são a mesma coisa, como muitas histórias de ficção científica nos querem fazer acreditar? Os cientistas que especularam sobre a singularidade pensam que, se esse momento chegar, será um ponto de viragem decisivo na história da humanidade.

É um pensamento preocupante, mas será que tal evento realmente acontecerá? Podemos parar com isso? E mesmo que alcancemos a singularidade da IA, isso significará desgraça e tristeza para a humanidade, ou entraremos numa era de cooperação entre humanos e IA?

Quando a singularidade acontecerá?

Com os rápidos avanços recentes no mundo da IA, a singularidade está começando a parecer mais uma possibilidade. A questão é quando isso ocorrerá. 

Ray Kurzweil, chefe de IA do Google, previu há alguns anos que a singularidade estaria aqui em 2045. Em uma conferência recente, um especialista em IA, John Hennessy, disse: “Alguns de nós pensamos que seria o ponto em que teríamos a inteligência geral estava a 40 ou 50 anos de distância. Acho que o horizonte de todos mudou provavelmente em 10 ou 20 anos.”

Com a explosão de serviços de IA que temos visto ultimamente, especialmente abrangendo a arte e a palavra escrita – e algumas das maiores empresas de tecnologia do mundo lutando para superar umas às outras – o seu comentário parece verdadeiro.

Dito isto, ninguém sabe se a singularidade realmente acontecerá. É possível que os desenvolvedores implementem proteções suficientes na tecnologia para evitá-lo. Desde a estreia pública do ChatGPT, muitos especialistas pediram a suspensão da pesquisa em IA antes que mais regulamentações e supervisão sejam estabelecidas.

Podemos evitar a singularidade?

Os especialistas em IA estão divididos sobre o assunto. Alguns dizem que a singularidade é inevitável, enquanto outros afirmam que podemos evitá-la através da regulamentação cuidadosa do desenvolvimento da IA. 

Embora tanto a UE como o Reino Unido estejam a explorar a regulamentação da IA, existe a preocupação de que, quando a regulamentação da IA ​​for aprovada, a singularidade já possa ter acontecido. E não há garantia de que quaisquer regulamentações significativas possam ser aprovadas.

O potencial para fazer melhorias em muitos campos com IA, incluindo ciência, medicina e educação, é uma perspectiva atraente. E nem mencionamos o lado corporativo da IA ​​– há muito dinheiro a ser ganho. A OpenAI disse que poderá deixar a UE se as atuais regulamentações propostas forem aprovadas. É a primeira amostra da resistência às regulamentações de IA que podemos esperar de algumas das empresas mais poderosas do mundo.

Além disso, os governos quererão competir entre si na esfera da IA. Mesmo que haja acordo sobre a ameaça potencial da IA, nenhum país quer travar o progresso por medo de ficar para trás em relação aos seus rivais. 

No entanto, existem outras maneiras pelas quais poderíamos potencialmente prevenir a singularidade. Uma seria implementar um interruptor de interrupção (físico ou programado na própria IA) para encerrar uma IA se ela se aproximasse de um estado considerado singular. No entanto, o encerramento de uma IA que de outra forma seria útil também não é um resultado ideal. Em outro cenário, a IA pode se rebelar, sabendo da existência do interruptor de interrupção, em vez disso, impulsionando-o a alcançar a singularidade.

O que tornaria a singularidade possível?

O desenvolvimento contínuo da inteligência artificial é o que tornará possível a singularidade. Se a IA chegar ao ponto em que for capaz de inventar tecnologia além da nossa compreensão e capacidades (AGI), é seguro dizer que a singularidade aconteceu – a IA excedeu a humanidade em termos de inteligência.

E mesmo que sejam implementadas restrições na programação de uma IA para evitar que a sua inteligência substitua a da humanidade, pequenos erros ou parâmetros definidos incorretamente podem causar inadvertidamente a singularidade que estávamos a tentar evitar.

Comportamentos imprevistos na IA já foram observados devido a parâmetros mal definidos. Em 2013, por exemplo, o programador Tom Murphy projetou uma IA para jogar jogos do Nintendo NES. Ao jogar Tetris, a IA aprendeu a pausar o jogo indefinidamente para evitar perder. Murphy não programou a IA para fazer isso. Imagine quais consequências imprevistas poderiam ocorrer com uma IA muito mais poderosa.

O que pode acontecer na singularidade?

Você estará familiarizado com esta resposta: Não temos ideia. E é bastante assustador, embora um pouco emocionante. Um cenário idealista veria humanos e máquinas trabalhando juntos, avançando para criar um futuro melhor para ambos. Novas tecnologias seriam descobertas, permitindo potencialmente à humanidade dar os primeiros passos no sentido de se estabelecer noutro local do sistema solar. Humanos e máquinas podem até fundir-se para criar uma nova forma de inteligência.

No entanto, outro futuro veria as máquinas dominando o mundo, com os humanos vivendo sob seu controle. Dado que a singularidade resultaria em tecnologia além da nossa compreensão, é altamente provável que não conseguiríamos parar as máquinas. Os filmes e os livros há muito que exploram esse futuro, tal como o fizeram o físico Stephen Hawking e o empresário Elon Musk, que temem que a IA avançada possa escapar ao nosso controlo.  


Strong

5178 Blog bài viết

Bình luận