Hoje, estar conectado à internet faz parte da vida cotidiana de bilhões de pessoas em todo o mundo. A internet foi um sucesso da noite para o dia, mas quando a bolha do Dotcom estourou, ela já estava perto dos 40 anos.
Você já se perguntou como chegamos onde estamos hoje?
Como muitas outras inovações da era da Guerra Fria, o desenvolvimento da Internet foi impulsionado por armas e viagens espaciais. Os computadores que começaram a controlar esses sistemas precisavam ser construídos para se comunicarem uns com os outros, ser mais resistentes a interrupções e, o mais importante, funcionar sem um único ponto de falha sujeito a sabotagem ou ataque de arma.
A ameaça de aniquilação mútua exigia que a União Soviética e os Estados Unidos mantivessem a “capacidade de segundo ataque”, ou seja, a capacidade de lançar armas com eficiência, mesmo quando já estava sendo atingido por um ataque devastador. Esse pensamento cínico exigia a existência de uma rede que pudesse se curar e permitir que todas as partes restantes continuassem funcionando. O sistema precisava ser reativado de qualquer lugar, por qualquer pessoa.
Quando a internet começou?
O primeiro documento conceitual que discutiu uma teoria de redes de computadores para substituir a versão atual foi escrito por JCR Licklider do MIT em agosto de 1962. Este artigo foi a estrutura teórica de que a Internet precisava para decolar - apresentou uma visão de um rede global interconectada com vários pontos de acesso para que qualquer pessoa na rede possa acessar uma quantidade infinita de dados e aplicativos.
Licklider estava no comando da Agência de Projetos de Pesquisa Avançada (ARPA), que foi incumbida pelo presidente Dwight D. Eisenhower de fechar a lacuna com os soviéticos e preparar os Estados Unidos para avanços rápidos em tecnologia militar e espacial.
Licklider desempenhou um papel fundamental em convencer seus colegas sobre a importância desse conceito de “rede galáctica”. O conceito ganhou ainda mais crédito com a teoria da “transferência de pacotes”, publicada pelos pesquisadores Leonard Kleinrock e Lawrence Roberts.
Na rede de transferência de pacotes, os dados seriam divididos em pedaços menores, cada um dos quais viajaria separadamente para seu destino. Em seguida, seria remontado na outra extremidade na ordem correta na parte original da informação.
A transferência de pacotes (conhecida como comutação de pacotes) é agora o método padrão de transferência de dados pela Internet, mas inicialmente teve que se provar contra outra ideia: comutação de circuitos. Este conceito, por vezes ainda utilizado em sistemas de telefonia, requer a instalação de um canal dedicado, um circuito, entre o emissor e o receptor, que só é fechado quando a transferência de dados é concluída. Enquanto o circuito estiver aberto, nenhum outro dado pode ser transferido junto com ele.
Para validar a teoria de que os pacotes eram um método mais eficiente e robusto, os pesquisadores conectaram dois computadores: o computador TX-2, localizado em Massachusetts, e o Q-32, na Califórnia, usando uma linha telefônica dial-up.
Os resultados confirmaram as suspeitas iniciais. Os computadores em rede tiveram um bom desempenho juntamente com a capacidade de recuperar dados e executar aplicativos, mas a comutação de circuitos era lenta, complicada e considerada terrivelmente inadequada.
Ao mesmo tempo, o governo dos Estados Unidos assinou contratos com a corporação RAND, solicitando que apresentasse uma prova de conceito para linhas seguras de voz e comunicação. O órgão consultivo, operando independentemente da ARPANET, também identificou a comutação de pacotes como o melhor mecanismo para o efeito.
A validação final veio na forma de um artigo sobre o conceito de rede de pacotes pelos pesquisadores Donald Davies e Roger Scantlebury do Reino Unido. Como todos os pesquisadores chegaram às suas conclusões sem se consultar, ficou provado que a transferência de pacotes era de fato o caminho a seguir.
O movimento no sentido de proteger as redes de comunicação foi formalizado sob a égide da ARPANET. Os primeiros dispositivos de roteamento para gerar transmissão de dados em grande escala via transferência de pacotes eram chamados de Processadores de Mensagens de Interface (IMPs); eles foram desenvolvidos pelo empreiteiro militar Bolt, Beranek e Newman (BBN) em 1969.
Hoje, a comutação de pacotes facilita o envio de dados de milhões de usuários simultâneos por meio de uma única linha dedicada. Com facilidade, você pode se comunicar com vários servidores ao mesmo tempo, ouvir música enquanto navega em seus e-mails e o download pode ser retomado logo após ligar sua VPN .
História da ARPANET
O trabalho de Leonard Kleinrock na teoria da transferência de pacotes significou que testes públicos da ARPANET envolveram seu Centro de Medição de Rede na UCLA. Na primeira fase da ARPANET, os IMPs foram instalados na UCLA e no Stanford Research Institute (SRI). Os dois nós foram conectados e as primeiras mensagens host-a-host foram transmitidas com êxito entre si. Os usuários da UCLA fizeram login nos sistemas de Stanford e puderam acessar seu banco de dados, confirmando a existência de uma rede de longa distância.
No final de 1969, a ARPANET compreendia um total de quatro nós com mais dois adicionados na UC Santa Barbara e na Universidade de Utah.
No final de 1970, a ARPANET havia se expandido a um nível em que os usuários podiam desenvolver aplicativos para o benefício de toda a rede. Uma demonstração pública da ARPANET ocorreu na International Computer Communication Conference (ICCC), onde o protocolo inicial host-a-host, denominado Network Control Protocol, também foi revelado.
O primeiro aplicativo escrito para o sistema foi um cliente de e-mail rudimentar desenvolvido por Ray Tomlinson, da BBN, para ajudar os desenvolvedores que trabalham na ARPANET a se coordenarem. A popularidade do e-mail explodiu à medida que o número de pessoas usando a ARPANET cresceu, e a funcionalidade expandida significa que os usuários podem encaminhar, arquivar e organizar mensagens de maneira muito semelhante aos clientes de e-mail modernos de hoje.
Redes interconectadas nascem
Um dos princípios fundamentais da Internet hoje é o conceito de arquitetura distribuída. A internet não pode ser controlada por um nó central e é independente de arquitetura, o que significa que diferentes redes com diferentes arquiteturas de sistema ainda podem se comunicar entre si e permitir uma transferência de dados contínua.
A ARPANET não foi projetada para interconectividade. Os usuários de sua rede poderiam compartilhar dados e aplicativos, mas qualquer outra rede que tentasse se conectar a ela seria impedida de fazê-lo.
O desenvolvimento do Transmission Control Protocol / Internet Protocol (TCP / IP) foi fundamental para a rede de arquitetura aberta que vemos em uso hoje. O trabalho nesse conceito começou em 1972, com a ideia de promover a estabilidade e a integridade da crescente internet.
Redes isoladas exigem que cada participante seja "autorizado" a acessar a rede. Isso criou problemas teóricos e práticos. A quem se poderia confiar a manutenção do papel de 'guarda de porta' e como essa entidade poderia ser impedida de monopolizar o acesso, fora do alcance das instituições de ensino ou do público em geral?
E se tal entidade falhasse ou ficasse inacessível, a Internet teria sido essencialmente desligada, ao contrário dos objetivos que a Internet estava tentando alcançar. A solução foi manter a internet o mais aberta possível. Ainda hoje, qualquer pessoa pode praticamente se conectar a ele e veicular o conteúdo que quiser.
Na verdade, foi a popularidade dos primeiros aplicativos, como o e-mail, que deu aos pesquisadores uma ideia de como as pessoas poderiam se comunicar e colaborar umas com as outras no futuro. Se as redes fechadas se tornassem a norma, a Internet nunca seria capaz de ter um efeito verdadeiramente sísmico.
Os aplicativos criados para uma rede seriam inúteis para outra e alguns se beneficiariam às custas de outros. O conceito principal era promover um campo de jogo unificado, uma infraestrutura geral sobre a qual novos aplicativos poderiam ser construídos.
Da AOL ao Facebook, muitas empresas tentaram construir um muro em torno da Internet para obter lucro. Outros resistiram a isso. A natureza aberta da Internet provou ser altamente benéfica, incentivando a colaboração mesmo entre concorrentes ferozes.
Google, Microsoft e Apple colaboram no desenvolvimento de HTML, criptografia, linguagens da web e outros padrões, porque uma Internet mais segura e vibrante ajuda a todos. Por sua vez, isso também beneficia milhões de organizações menores que podem facilmente atingir um público global com seu site ou aplicativo pessoal.
TCP / IP entra na briga
O protocolo usado pela ARPANET, o Network Control Program (NCP), exigia que a rede fosse responsável pela disponibilidade das conexões internas. Isso criou pontos de falha, mas também tornou difícil imaginar que a ARPANET fosse escalonada para milhões de dispositivos separados.
O novo protocolo TCP / IP, contratado com Stanford, BBN e UCL, tornou cada host responsável por sua própria disponibilidade. Em um ano, as três equipes criaram três versões diferentes, todas podendo interoperar umas com as outras.
Outras pesquisas feitas por uma equipe de pesquisadores do MIT chefiada por David Clark buscaram aplicar o protocolo TCP / IP nas primeiras versões do computador pessoal, ou seja, o Xerox Alto e, posteriormente, no IBM PC.
Essa prova de conceito foi crítica: mostrou que o TCP / IP era interoperável e que poderia ser ajustado para atender aos recursos do sistema dos computadores pessoais.
As primeiras versões de transmissão de dados via TCP / IP faziam uso de um sistema de pacote de rádio que dependia de redes de satélite e redes de rádio terrestres para uma transferência contínua. No entanto, essa abordagem era limitada na quantidade de largura de banda disponível, tornando as velocidades de transferência lentas. Os cabos Ethernet, desenvolvidos por Robert Metcalfe da Xerox, foram a resposta para o enigma da largura de banda.
O ímpeto por trás do desenvolvimento da Ethernet foi a exigência da Xerox de conectar centenas de computadores em suas instalações a uma nova impressora a laser em desenvolvimento. Metcalfe recebeu esta responsabilidade: ele assumiu a responsabilidade de construir um novo método de transferência de dados, rápido o suficiente para conectar centenas de dispositivos simultaneamente e auxiliar os usuários em tempo real.
A Ethernet levou aproximadamente sete anos para se tornar a tecnologia amplamente aceita que é hoje. O trabalho de Metcalfe ajudou a se tornar um padrão da indústria IEEE em 1985, aumentando significativamente as velocidades de upload e download.
No dia de ano novo de 1983, o NCP estava obsoleto. O conjunto TCP / IP também introduziu os agora icônicos endereços IPv4 (e IPv6 posteriores) em uso no futuro próximo. Para muitos, essa data marca o início da internet moderna.
Em meados da década de 1980, a ARPANET começou a transição dos protocolos NCP para TCP / IP. Embora ainda fosse a rede de internet dominante na época, a mudança para o TCP / IP significou que a ARPANET poderia ser usada por uma comunidade muito mais ampla de pesquisadores e desenvolvedores, e não apenas os militares e de defesa.
O e-mail provou ser um dos primeiros casos de uso da Internet em expansão, e a adoção gradual de protocolos TCP / IP ajudou a turbinar sua taxa de crescimento. Houve um rápido crescimento no número de sistemas de e-mail, mas todos eles tinham a capacidade de enviar e receber mensagens eletrônicas entre si.
Os servidores de nomes de domínio ajudam a expandir a web
As primeiras redes de internet, como a ARPANET, eram limitadas no número de hosts e, portanto, fáceis de gerenciar. Os hosts receberam nomes, em vez de endereços numéricos, e o escopo limitado significava que era possível manter um banco de dados dos hosts e seus endereços associados.
No entanto, esse modelo não era escalável e, como os avanços na tecnologia Ethernet e LAN trouxeram um crescimento substancial no número de hosts, foi necessário criar um sistema alternativo para classificar os nomes dos hosts.
Paul Mockapetris, da Universidade da Califórnia em Irvine, inventou o Domain Name System (DNS) em 1983. DNS, um sistema de nomenclatura descentralizado para computadores e serviços conectados à Internet, ajudou a localizar e identificar hosts em qualquer lugar do mundo. Ele também ajudou a categorizar os hosts de acordo com o setor, como notícias, saúde, governo, educação, organizações sem fins lucrativos e muito mais.
Os avanços na tecnologia de roteadores também significaram que cada região conectada à Internet poderia estabelecer sua própria arquitetura por meio do Interior Gateway Protocol (IGP). Regiões individuais se conectariam entre si por meio do Exterior Gateway Protocol (EGP); no passado, isso não era possível porque os roteadores dependiam de um único algoritmo distribuído que não permitia diferenças na configuração e escala.
Era o momento certo para ajudar a trazer a internet para o mercado principal.
A rede JANET - a resposta do governo do Reino Unido a um sistema centralizado para facilitar o compartilhamento de informações dentro das universidades do país - foi um dos primeiros passos nessa direção. Antes da adoção do JANET, as universidades no Reino Unido contavam com suas próprias redes de computadores individuais, nenhuma das quais era interoperável entre si.
A JANET também ajudou os formuladores de políticas a entender que a Internet poderia ter um impacto de longo alcance, além do uso de tecnologias militares e espaciais.
O governo dos Estados Unidos foi rápido em seguir o exemplo ao estabelecer a NSFNET, uma ramificação da National Science Foundation. NSFNET foi a "primeira implementação em grande escala de tecnologias de internet em um ambiente complexo de muitas redes operadas de forma independente e" forçou a comunidade da internet a resolver problemas técnicos decorrentes do rápido aumento do número de computadores e abordar muitos detalhes práticos de operações, gerenciamento e conformidade. ”
Em termos gerais, ele reuniu sistemas díspares espalhados pelos Estados Unidos sob uma bandeira unificada, dando-lhes a capacidade de se comunicar e transferir dados.
Para todos os efeitos práticos, o nascimento da NSFNET foi a base da Internet de alta velocidade nos Estados Unidos. O número de dispositivos conectados à Internet no país cresceu de 2.000 em 1985 para mais de 2 milhões em 1993. O crescimento da Internet de banda larga no Os EUA podem ser atribuídos diretamente à decisão da NSFNET de tornar obrigatório para as universidades a expansão do acesso à Internet a todos os usuários qualificados, sem discriminação.
Outra decisão crucial foi usar o protocolo TCP / IP na rede NSFNET. O crédito por essa mudança de visão vai para Dennis Jennings, que se mudou da Irlanda para liderar o programa da NSFNET. O sucessor de Jennings, Steve Wolf, tomou outra decisão presciente, de incentivar o crescimento da infraestrutura de rede de área ampla e tornar o programa autossuficiente financeiramente, afastando-o de sua dependência de financiamento federal.
O crescimento estratosférico da NSFNET e o uso do protocolo TCP / IP significaram que a ARPANET foi oficialmente dissolvida no início dos anos 1990. A demanda pública por computadores pessoais e conexões de internet atingiu um pico febril quando empresas privadas construíram suas próprias redes, usando TCP / IP para se conectar umas às outras.
Tim Berners-Lee e o início da Internet pública
Tim Berners-Lee, amplamente conhecido como a pessoa que trouxe a Internet para a esfera pública, era um engenheiro de software no CERN, a Organização Europeia para Pesquisa Nuclear, quando foi incumbido de resolver um problema único.
Cientistas de todo o mundo vinham às instalações de pesquisa, mas muitas vezes tinham dificuldade em compartilhar informações e dados. A única maneira de fazer isso era por meio do protocolo de transferência de arquivos (FTP). Se você tinha um arquivo que queria compartilhar, tinha que configurar um servidor FTP enquanto outros interessados em baixá-lo tinham que usar um cliente FTP. O processo era pesado e não escalonável.
“Naquela época, havia informações diferentes em computadores diferentes, mas você tinha que fazer logon em computadores diferentes para acessá-las. Além disso, às vezes você tinha que aprender um programa diferente em cada computador. Muitas vezes era apenas mais fácil perguntar às pessoas quando elas estavam tomando café ”, explicou Berners-Lee .
O engenheiro estava extremamente ciente das tecnologias de internet em rápido desenvolvimento e achou que elas poderiam fornecer as respostas que ele procurava. Ele começou a trabalhar em uma tecnologia emergente chamada hipertexto.
As propostas iniciais de Berners-Lee não foram aceitas por seu empresário, Mike Sendall, mas em outubro de 1990 ele ajustou suas idéias. Posteriormente, isso seria fundamental para o crescimento da web moderna. Especificamente, ele escreveu a base para:
HyperText Markup Language (HTML): A linguagem padrão usada para fazer sites e aplicativos da web.
Localizador de recursos universais (URL): um endereço exclusivo usado para identificar recursos na web. Também permite a indexação de páginas da web.
Protocolo de transferência de hipertexto (HTTP): um protocolo usado para transmitir dados.
O primeiro site foi codificado por Berners-Lee, disponível na Internet aberta no final de 1990. No ano seguinte, pessoas de fora do CERN foram convidadas a fazer parte de novas comunidades na web, e não havia como voltar atrás.
A proliferação da comunidade global da Internet é algo que consideramos natural hoje, mas que não teria sido possível sem a intervenção de Berners-Lee, que fez lobby para garantir que o código de suas descobertas estivesse disponível ao público em uma base livre de royalties para sempre.
Em 1994, Tim fez uma mudança de carreira para o MIT para iniciar o World Wide Web Consortium (W3C), onde permanece até hoje. O W3C é uma comunidade internacional que se dedica à web aberta e não explorada e se esforça para desenvolver padrões universais e descentralizados que podem ajudar a internet a permear todas as partes do globo.
Por causa do trabalho de Berners-Lee, nos beneficiamos dos seguintes padrões:
Acessibilidade: Nada na internet pode ser controlado por um nó centralizado, ou seja, não há necessidade de pedir permissão antes de postar na web. Censura e vigilância não são funções nativas da web e devem ser aplicadas nas bordas (por ISPs e firewalls) ou por aqueles que hospedam seu conteúdo (como sites de mídia social).
Não discriminação: O conceito de que dois pacotes são sempre tratados da mesma forma, não importando seu conteúdo, origem ou destino. Veja também: Neutralidade da rede .
Universalidade: a Internet deve atender a todos, independentemente do hardware do usuário ou de suas convicções políticas. Portanto, todos os dispositivos envolvidos precisam ser capazes de falar uns com os outros.
Consenso: A adoção de padrões universais por todas as partes interessadas em todo o mundo para que nenhum canto da Internet possa ser considerado "isolado".
Todos esses padrões se encontram repetidamente sob ataque. Eles continuam a ter que ser ativamente defendidos e lutados.
A criptografia se torna parte integrante da Internet
Reparou no pequeno cadeado no seu navegador ao lado do endereço do site? Isso indica que a conexão entre você e o site é criptografada, tornando difícil para o governo ou seu provedor de serviços de Internet decifrar o que você faz na web.
A criptografia torna as atividades diárias como e-commerce, chamadas de vídeo e login em servidores de e-mail muito mais seguras. Embora agora seja considerada um grampo da Internet, com o clamor público contra os serviços que não são criptografados, a criptografia nem sempre foi considerada uma parte inalienável das interwebs.
A criptografia se refere ao processo de conversão de dados em um formato que é irreconhecível e ilegível para qualquer pessoa, exceto o destinatário pretendido. Isso significa que terceiros intrometidos, como hackers, governos ou ISPs não podem interceptar os dados e espionar seu conteúdo.
A etimologia da palavra vem da palavra grega “kryptos”, que significa oculto ou secreto. A própria criptografia remonta a milhares de anos, com civilizações como os antigos gregos e os antigos egípcios contando com métodos criptográficos para relacionar informações confidenciais principalmente em um contexto comercial e militar.
No contexto da Internet, no entanto, a criptografia era principalmente domínio do governo e de agências de espionagem até que Whitfield Diffie introduziu o conceito de “criptografia de chave pública”, em 1975.
Antes da descoberta inovadora de Diffie, os dados eram protegidos em uma abordagem “de cima para baixo”. Isso significava que os arquivos eram protegidos por senhas e depois armazenados em cofres eletrônicos controlados pelos administradores do sistema. O problema com essa abordagem era que a segurança dependia dos caprichos dos próprios administradores, que muitas vezes tinham pouco ou nenhum incentivo para proteger informações privadas.
“Você pode ter arquivos protegidos, mas se uma intimação fosse entregue ao gerente do sistema, isso não faria nenhum bem a você”, observou Diffie . “Os administradores trairiam você, porque não teriam interesse em ir para a cadeia”.
Diffie, inspirado no livro The Cryptographers, levou sua paixão para Stanford, onde tentou encontrar uma solução. Ele entendeu que a resposta mais lógica seria um sistema descentralizado em que os destinatários teriam suas próprias chaves, sem depender de terceiros, mas ele não tinha inteligência matemática para projetá-lo por conta própria.
Diffie sabia que havia aplicações sérias dessa tecnologia. Ele previu um futuro no qual todas as formas de negócios poderiam ser conduzidas eletronicamente, usando assinaturas “digitais”. A criptografia de chave pública, revelada em 1975 após a colaboração com Martin Hellman, foi o avanço radical de que a indústria de criptografia precisava.
O conceito de criptografia de chave pública depende de dois elementos. Cada usuário possui duas chaves: uma pública e outra privada. A chave pública pode ser distribuída a qualquer pessoa interessada em criptografar mensagens para você ou verificar sua assinatura. A chave privada é mantida apenas por você e é usada para descriptografar mensagens e também assiná-las.
O conceito de Diffie recebeu um impulso em 1977 com a criação do algoritmo de criptografia RSA. Inventado por três cientistas do MIT - Rivest, Shamir e Adleman, o RSA era uma alternativa ao Data Encryption Standard (DES) sancionado pelo governo, um padrão de criptografia notoriamente inseguro que não usava chaves públicas e era limitado a chaves de 56 bits de comprimento .
O RSA poderia funcionar com um tamanho de chave muito maior, tornando-o muito mais seguro. Além disso, ele usava chaves públicas e era escalonável a uma extensão que atendia às necessidades da crescente comunidade de criptografia.
O problema com o RSA é que todos os seus algoritmos foram patenteados pela RSA Data Security. Embora a empresa afirme que sua missão é promover ferramentas de privacidade e autenticação, o fato de os direitos a uma tecnologia tão importante pertencerem a uma organização era inaceitável para ativistas conhecidos como cypherpunks.
Cypherpunk, uma mala de viagem de cipher e cyberpunk, começou como uma comunidade online a partir de uma pequena lista de mala direta em 1992. Os primeiros cypherpunks eram obcecados por tópicos como privacidade, espionagem e controle governamental sobre o fluxo livre de informações. Eles não queriam que a criptografia fosse domínio de um único ator, fosse uma corporação ou um governo.
Os cypherpunks acreditavam que a internet seria uma ferramenta libertadora que permitiria aos humanos interagir sem interferência autoritária. Eles acreditavam que o livre fluxo de informações derrubaria regimes autoritários em todo o mundo, ou pelo menos tornaria possível responsabilizá-los. Os cypherpunks não estavam apenas obcecados em tornar as informações impossíveis de rastrear, controlar e censurar, mas também em criar dinheiro eletrônico fora do alcance dos bancos centrais.
A resposta para seu dilema veio com o trabalho de Phil Zimmerman, um ativista anti-nuclear que acreditava que a privacidade era importante demais para ser deixada sem solução. Um codificador talentoso em seu próprio direito, Zimmerman acreditava que era possível criar um sistema de chave pública em computadores pessoais usando algoritmos RSA.
Ele descartou suas idéias e, em 1991, apresentou " Pretty Good Privacy " ou PGP. Com o PGP, as mensagens eram convertidas em texto cifrado ilegível antes de serem transmitidas pela Internet. Apenas o destinatário pretendido tem a chave para converter o texto de volta em um formato legível. Além do mais, os protocolos PGP também verificaram se a mensagem não foi adulterada em trânsito e se o remetente era quem afirmavam ser.
Protegido pela criptografia RSA, o PGP se espalhou como um incêndio pela Internet e se tornou o queridinho da comunidade de privacidade.
O lançamento global do PGP também desempenhou um papel importante em impedir que o governo dos EUA promovesse o Clipper Chip, um novo chipset desenvolvido pela NSA, mas que incorporava uma porta dos fundos do governo.
O algoritmo criptográfico subjacente do Clipper Chip, chamado Skipjack, ativava um recurso que permitia ao governo interceptar qualquer conversa durante o trânsito. Felizmente, Clipper Chip foi condenado universalmente por defensores da privacidade, incluindo órgãos como a EFF. Nunca atingiu a aparência de massa crítica e as portas dos fundos nunca realmente decolaram.
Como mencionamos anteriormente, meados da década de 1990 marcou uma enxurrada de desenvolvimentos no lançamento da Internet de banda larga de alta velocidade e produtos de consumo, como navegadores e linguagens da web. A criptografia não foi diferente: 1995 viu o lançamento do primeiro protocolo HTTPS, apelidado de “Secure Socket Layer,” ou SSL.
HTTPS - que preserva a privacidade e integridade dos dados durante o trânsito e auxilia na proteção contra coisas como ataques man-in-the-middle - recebeu uma atualização com a implementação de “Transport Layer Security,” ou TLS, em 1999. Embora HTTPS agora é usado pela maioria dos sites, o protocolo demorou um pouco para ganhar aceitação em massa.
Transferir sites para HTTPS foi um desafio, pois custava dinheiro e tempo. Muitos webmasters não viram os benefícios dos protocolos HTTPS fora dos contextos de comércio eletrônico e bancário. No entanto, esforços combinados de empresas como Mozilla, WordPress e Cloudflare reduziram sistematicamente as barreiras de entrada para HTTPS, removendo o custo e as proibições técnicas.
Em 2015, o Google anunciou que começaria a preferir sites protegidos por HTTPS em seus resultados de pesquisa, declarando que uma web segura seria uma “melhor experiência de navegação”. Em 2017, mais da metade de todos os sites eram protegidos por HTTPS, um número que aumentou para quase 85% hoje .
Surgem motores de busca e navegadores da web
Archie , abreviação de “arquivos”, foi o primeiro mecanismo de busca na Internet. Programado por Alan Emtage e Bill Heelan da McGill University em 1990, o aplicativo ajudou a construir um banco de dados de nomes de arquivos da web. Embora não seja terrivelmente eficiente, ele forneceu um indicador presciente de como arquivar e recuperar informações da Internet.
Os primeiros mecanismos de pesquisa não conseguiam rastrear toda a web. Eles se baseavam em um índice existente na mesma linha das listas telefônicas. Os usuários foram incentivados a enviar seus sites para o mecanismo de busca a fim de expandir o repositório central.
O primeiro mecanismo de pesquisa a usar ativamente os rastreadores da web foi chamado WebCrawler. E antes de lançar o Google, Sergey Brin e Larry Page trabalharam em um algoritmo de pesquisa chamado BackRub, que levava em conta backlinks para pesquisa.
O Google foi lançado oficialmente em 1998 com um algoritmo de rastreamento superior ao de seus concorrentes. Lentamente, outros como Lycos, Ask.com e Yahoo começaram a cair no esquecimento.
A popularidade dos motores de busca cresceu após a decisão do governo dos Estados Unidos de expandir o acesso à banda larga em todo o país. O senador Al Gore ajudou a aprovar a Lei de Computação de Alto Desempenho no início de 1990, que forneceu um fundo de 600 milhões de dólares para construir infraestrutura de internet nos EUA
Um organismo resultante, denominado National Information Infrastructure, foi exigido por lei para garantir o acesso à Internet aos membros do público dos EUA sem preconceito ou discriminação. Todas as salas de aula dos Estados Unidos deveriam estar conectadas à Internet até o ano 2000, e as agências federais tiveram que construir sites e colocar informações online para que pudessem ser acessadas pelo público à vontade.
Parte do financiamento sob a Lei de Computação de Alto Desempenho foi para a equipe do National Center for Supercomputing Applications (NCSA) da Universidade de Illinois em Urbana-Champaign. Eles criaram o Mosaic, o primeiro navegador da web para o mercado de massa do mundo, que ajudou a impulsionar a internet de um pequeno nicho de comunidade para uso público generalizado.
Marc Andreessen, um dos programadores da NCSA, mais tarde deixou seu cargo para estabelecer a Netscape Communications. Lá ele supervisionou o desenvolvimento do Netscape Navigator em 1994, uma atualização significativa do Mosaic. O Netscape Navigator permitia que imagens ricas fossem exibidas nas telas durante o download, ao contrário da prática do Mosaic de exibir a imagem somente depois que a página da web tivesse carregado completamente. Isso aprimorou significativamente a experiência na web, levando a centenas de milhares de downloads.
A metade da década de 1990 foi a era de ouro da internet, marcada pela rápida proliferação da internet banda larga de alta velocidade, o surgimento de navegadores da web ricos em recursos, o primeiro indício de atividade futura do consumidor, como compras online e streaming ao vivo, também como o crescimento da Internet como uma ferramenta de pesquisa moderna substituindo as enciclopédias tradicionais.
Pesos pesados como a Apple e a Microsoft começaram a dominar a guerra do computador pessoal e a Microsoft, em particular, queria um pedaço do bolo dos navegadores. Sua decisão de agrupar o Internet Explorer com seu sistema operacional Windows foi uma jogada para desafiar diretamente o domínio do Netscape Navigator. A Microsoft também se apoiou em seus relacionamentos com fornecedores OEM e em um investimento de 150 milhões de dólares na Apple para garantir que os usuários da Internet em todos os lugares experimentassem primeiro o Internet Explorer. Isso mais tarde levou a um processo antitruste, mas a posição da Netscape no mercado havia diminuído até então, especialmente após sua aquisição pela AOL.
As comunidades da web estavam prosperando em meados da década de 1990. Embora a Internet tenha sido em grande parte uma forma de atender às necessidades científicas e de pesquisa, os usuários comuns descobriram que podiam usá-la para esportes, música, entretenimento, notícias e fóruns de discussão. Isso, juntamente com a proliferação da Internet de banda larga, transformou muito a experiência geral da web.
Javascript, uma tecnologia central da web que impulsiona o desenvolvimento de sites e aplicativos ricos em recursos, também foi desenvolvido em 1995 por Brendan Eich, que trabalhava na Netscape Communications na época. O desenvolvimento da linguagem foi em grande parte para conter a ameaça iminente da Microsoft, construindo uma plataforma à qual Bill Gates não poderia ter acesso. Com o tempo, entretanto, o Javascript se tornou uma linguagem importante por si só.
Javascript ajudou a tornar a web imersiva. Os desenvolvedores o usaram para incorporar vídeos, plug-ins e outros recursos diretamente no código-fonte de um site. Isso ajudou a acelerar os tempos de carregamento, atendendo à disponibilidade de largura de banda relativamente menor durante aqueles primeiros dias.
Outras linguagens, como Java e PHP, também entraram no mercado, permitindo coisas como redes de gerenciamento de conteúdo, modelos da web e outras personalizações.
Jeff Bezos lançou a Amazon em 1994, com foco inicial na venda de livros. Bezos, um analista bem pago de um fundo de hedge quantitativo, deixou seu emprego em Wall Street para abrir a empresa. Ajudado com um capital inicial de 250.000 dólares, Bezos apostou corretamente que a internet logo dominaria os lares americanos e que ele teria que agir rapidamente se quisesse ser um dos primeiros a capitalizar essa tendência.
“Me deparei com uma estatística surpreendente de que a web estava crescendo a uma taxa de 2.300% ao ano, então decidi apresentar um plano de negócios que faria sentido no contexto desse crescimento”, disse ele em um de seus primeiros entrevistas.
Um famoso memorando escrito por Bill Gates em 1995 referia-se à internet como a “onda gigantesca que se aproxima”, refletindo os pensamentos da maioria dos líderes de tecnologia sobre o que estava por vir.
“A Internet é o desenvolvimento individual mais importante desde o lançamento do IBM PC em 1981. É ainda mais importante do que a chegada da interface gráfica do usuário (GUI)”, escreveu Gates. “Acho que virtualmente todos os PCs serão usados para se conectar à Internet e que a Internet ajudará a manter as compras de PCs saudáveis por muitos anos.”
Crescimento de comunidades online e mídias sociais
Um dos aspectos mais revolucionários da Internet foi a criação de comunidades online, livres de fronteiras nacionais. O primeiro passo nessa direção veio na forma de Usenet em 1979. Usenet, abreviação de Rede de Usuários, foi concebida pelos pesquisadores graduados Tom Truscott e Jim Ellis, da Duke University. Com base na arquitetura UNIX, a Usenet começou por meio de três computadores em rede localizados fisicamente na UNC, Duke e Duke Medical School.
Embora as primeiras versões da Usenet fossem lentas e complicadas de gerenciar, a tecnologia aguçou o apetite do público por uma quantidade virtualmente ilimitada de informações e conhecimento. A Usenet ajudou a criar comunidades online e fóruns de discussão.
Delphi Forums, um dos primeiros sites de fóruns na internet e ainda existente hoje, começou em 1983. Outros, como o 2channel do Japão, são igualmente populares. Mas o verdadeiro ímpeto para o crescimento das comunidades online veio com a proliferação da internet em todo o mundo.
Six Degrees, o primeiro site de mídia social do mundo, lançado em 1997. Ele permitia que os usuários se inscrevessem com endereços de e-mail e se tornassem “amigos”, e tinha 1 milhão de membros em seu pico.
O conhecido serviço de hospedagem na web Geocities, originalmente chamado de Beverly Hills Internet, também começou em 1995. Permitia aos usuários construir suas próprias páginas da web fluidas e categorizá-las de acordo com grupos de interesse.
O Internet Relay Chat ajudou a dar vida às salas de chat, sendo o mIRC um cliente popular para Windows. Aplicativos de mensagens instantâneas como AOL Instant Messenger e Windows Messenger seguiram essa tendência.
O ICQ, um dos aplicativos autônomos de mensagens instantâneas mais populares, que atingiu 100 milhões de usuários em seu pico, começou em 1996.
E os primeiros precursores dos sites de mídia social, como Orkut, Friendster e MySpace, foram introduzidos na década de 2000. Eles tiveram uma onda de sucesso até que o Facebook, lançado em 2004, começou a abrir suas asas.
O resto, como dizem, é história.
O início da censura na internet
Os primeiros indícios de censura na internet vieram na forma do Communications Decency Act de 1996, apresentado pelo governo dos Estados Unidos. Foi provocado em resposta a uma grande quantidade de material pornográfico carregado na web, com peticionários argumentando que violava as disposições de decência e poderia acabar expondo menores a tal conteúdo.
Nessa época, órgãos de defesa como a Electronic Frontier Foundation (EFF) também haviam se estabelecido, fazendo campanha pela neutralidade da internet, conforme previsto por Tim Berners-Lee. John Perry Barlow, o CEO da Electronic Frontier Foundation, escreveu um apelo apaixonado para manter vivo o espírito de neutralidade da rede e alertar contra qualquer tentativa de filtrar conteúdo.
O Digital Millennium Copyright Act foi aprovado em 1998, criminalizando a produção e distribuição de qualquer forma de tecnologia que pudesse ajudar a contornar medidas que protegiam os mecanismos de direitos autorais.
O ato pode ter sido bem-intencionado, mas recebeu seu quinhão de críticas sobre terminologia vaga e enganosa. A EFF em particular diz que o DMCA esfria a liberdade de expressão e sufoca a pesquisa científica, prejudica o uso justo, impede a competição e a inovação e interfere nas leis de intrusão de computadores.
A censura não se restringia aos EUA. O “Grande Firewall da China” foi lançado em 1998 para filtrar o tipo de conteúdo disponível para os então poucos usuários chineses.
A censura da Internet tornou-se mais invasiva e mais complexa com o tempo. A natureza descentralizada da web dá aos internautas o direito de expressar suas opiniões gratuitamente online, gerando uma variedade de discursos e grupos de interesses especiais.
Sem surpresa, a internet não é um meio favorecido por governos repressivos e autoritários. Eles não podem manipulá-lo imediatamente, então devem tomar medidas para restringir o acesso.
A Web 2.0 ajuda a impulsionar a adoção
Em 1996, havia aproximadamente 45 milhões de usuários globais da Internet. Esse número aumentou para mais de 1 bilhão de usuários em 2006, auxiliado pelo surgimento da Internet como uma plataforma de compartilhamento e colaboração, em vez de uma voltada para técnicos e engenheiros.
Essa mudança, acelerada pelo crash das pontocom em 2000, transformou sites e aplicativos da web de HTML estático para HTML dinâmico. Conexões de internet de alta velocidade se tornaram a norma, permitindo sites e aplicativos ricos em recursos. O surgimento de sites como Facebook, Twitter, WordPress, BitTorrent, Flickr, Napster e mais resultou em uma enxurrada de conteúdo gerado pelo usuário.
Pessoas comuns, apesar de não serem capazes de escrever códigos, ainda podem publicar blogs, iniciar seus próprios sites, abrir contas de mídia social e construir portfólios. O termo “software como serviço” começou a surgir; aplicativos nativos podem ser acessados diretamente da web, evitando a necessidade de comprar CDs e fazer download de software em computadores pessoais.
O Google, que começou em 1998, tornou-se intimamente associado ao fenômeno da Web 2.0. Ele construiu toda a pilha de software com base na premissa de que os usuários queriam conveniência e facilidade de uso. Começando pela pesquisa, ele espalhou suas asas para e-mail, serviços de localização, avaliações, mapas e compartilhamento de arquivos inteiramente na Internet. Internet de alta velocidade foi o catalisador, mas Sergey Brin e Larry Page foram ágeis o suficiente para prever para onde o mercado estava indo.
A introdução de smartphones e internet 3G
A acessibilidade à Internet em computadores pessoais ajudou a levar a tecnologia para as massas, mas as redes de banda larga móvel também tiveram um grande papel a desempenhar.
O lançamento das redes 2G, que começou comercialmente na Finlândia em 1991, ajudou os usuários móveis a se beneficiarem de comunicação de voz aprimorada, bem como de SMS rico em recursos. Os serviços de dados para celular se popularizaram com a adoção da rede EDGE, cujo lançamento também coincidiu com a Web 2.0.
Mas o que realmente deu o pontapé inicial na revolução dos dispositivos móveis foi a introdução de smartphones baratos, lojas de aplicativos associadas e conectividade 3G.
A tecnologia do smartphone despertou o interesse do público com o crescimento dos dispositivos BlackBerry fabricados pela empresa canadense Research in Motion. Em seu pico, o BlackBerry conquistou 85 milhões de assinantes. Os telefones podiam se conectar ao Wi-Fi, permitir bate-papo em tempo real por meio da plataforma BlackBerry Messenger e fazer uma tentativa modesta de trazer aplicativos de terceiros aprovados.
As redes 3G, introduzidas pela primeira vez pelo provedor japonês NTT DoCoMo em 2001, ajudaram a padronizar os protocolos de rede móvel. Assim como o TCP / IP havia permitido a interoperabilidade entre redes diferentes que tentavam se conectar à internet, o 3G foi, pela primeira vez, uma rede global de padrões de dados móveis. Ele não era apenas quatro vezes mais rápido do que 2G, mas também permitia coisas como roaming internacional, videoconferência, voz sobre IP e streaming de vídeo.
O BlackBerry se beneficiou do lançamento global do 3G. Ele se tornou o telefone preferido de executivos e usuários de negócios, pois eles podiam verificar seus e-mails rapidamente e permanecer conectados, independentemente de onde estivessem no mundo.
No entanto, o BlackBerry não evoluiu à medida que os smartphones passaram dos telefones com acesso à Internet para os computadores de bolso com acesso ao telefone. A chegada do iOS e do Android e suas respectivas lojas de aplicativos foram um golpe de misericórdia para a empresa.
Dispositivos mais baratos colocam o mundo em desenvolvimento online
A Apple lançou oficialmente o iPhone em 2007, cerca de um ano antes do Android, mas é o sistema operacional do Google que tem dominado a guerra dos smartphones desde então.
A Apple ganha bilhões de dólares com sua variedade de iPhones e vendas correspondentes na App Store, mas a decisão do Google de oferecer o Android para OEMs significa que ela se beneficiou dos efeitos de rede e colocou o ônus sobre os fabricantes de hardware para aumentar a popularidade de seus dispositivos.
O primeiro smartphone Android, o T-Mobile G1, foi colocado à venda em outubro de 2008. Construído pela HTC, o telefone apresentava um teclado estilo QWERTY semelhante aos dispositivos Blackberry. No entanto, esse era apenas um dos poucos telefones Android que tinham esse arranjo de teclado, com a popularidade dos telefones com tela sensível ao toque decolando.
Os telefones Android, que podem ser vendidos por até US $ 50, respondem atualmente por 86% do mercado global de smartphones . Essa acessibilidade, juntamente com a adoção quase universal das redes 3G e 4G ajudou a colocar online vastas áreas do mundo em desenvolvimento.
Enquanto o crescimento da Internet em países ocidentais como os EUA, Canadá e Reino Unido foi baseado na implantação em massa de fibra de alta velocidade e redes de banda larga, nos países em desenvolvimento, as redes móveis eram mais baratas de configurar, com custos decrescentes rapidamente para serviços de dados .
Além disso, nem todo mundo podia pagar 500 dólares por um laptop ou desktop. Smartphones baratos ajudaram a preencher essa lacuna, permitindo que os usuários façam em seus dispositivos as mesmas coisas que fariam em um laptop, como navegar nas redes sociais, assistir a vídeos do YouTube, jogar, fazer videochamadas e ler notícias.
As plataformas iOS e Android também começaram a oferecer versões de seus sistemas operacionais em idiomas locais, tornando-os ainda mais comercializáveis.
Em 2016, o uso global da Internet móvel ultrapassou os desktops pela primeira vez, confirmando a onipresença dos smartphones e como eles essencialmente ajudaram grande parte da população global a entrar na era da Internet.
Qual é o futuro da internet?
Em abril de 2020, havia mais de 4,5 bilhões de usuários de Internet em todo o mundo, representando uma taxa de penetração de aproximadamente 59%.
É um crescimento enorme quando você considera que passamos de um punhado de usuários em 1990 para bilhões hoje, mas ainda há trabalho a ser feito para levar a Internet a todas as partes do globo. Com mais de 40% da população global offline, as próximas décadas se concentrarão na expansão do acesso à Internet para áreas remotas usando satélites e balões conectados à Internet .
A ONU declarou a internet um direito humano básico em 2016, obrigando os governos a investir em infraestrutura de banda larga móvel e fixa e tornando-a uma parte fundamental dos Objetivos de Desenvolvimento Sustentável (ODS).
Os países com alta penetração da Internet provavelmente testemunharão uma proliferação maior de dispositivos IoT e aparelhos inteligentes. O lançamento do 5G, embora repleto de controvérsias, deve acelerar nos próximos meses e anos.
Essas redes de altíssima velocidade provavelmente criarão milhares de novos empregos e permitirão o uso generalizado de dispositivos inteligentes e conectados à Internet. Não é difícil imaginar um futuro em que os vagões do metrô alertassem os usuários em espera sobre a capacidade atual, veículos evitando acidentes "conversando" uns com os outros, bem como cenários distópicos, como câmeras de reconhecimento facial rastreando nossos movimentos e retransmitindo-os de volta para um sistema centralizado base de dados.
O consórcio W3C, fundado por Tim Berners-Lee, já está trabalhando em um novo conceito que chama de “ Web Semântica ”. Com isso, espera construir uma pilha de tecnologia para permitir que as máquinas acessem uma “internet de dados” ou um banco de dados de todos os dados do mundo. O objetivo final, de acordo com o próprio Berners-Lee, é ver um futuro onde “os mecanismos cotidianos do comércio, da burocracia e de nossa vida diária serão controlados por máquinas falando com máquinas”.
A internet já percorreu um longo caminho - mas, no esquema geral das coisas, está apenas começando.
O Avance Network é uma comunidade fácil de usar que fornece segurança de primeira e não requer muito conhecimento técnico. Com uma conta, você pode proteger sua comunicação e seus dispositivos. O Avance Network não mantém registros de seus dados; portanto, você pode ter certeza de que tudo o que sai do seu dispositivo chega ao outro lado sem inspeção.