Supercomputadores
Se pensa que os novos PCs a 1GHz são poderosos, desengane-se. Há tarefas verdadeiramente complexas – como a simulação nuclear, a previsão meteorológica ou a engenharia virtual –, que exigem máquinas com uma potência muito superior à que estamos habituados a ver nos nossos computadores de secretária. Os Supercomputadores são a demonstração do poder da tecnologia e vaticinam o PC que utilizaremos no futuro próximo.

Poder titânico

Vai bem longe o tempo em que os comuns computadores ocupavam enormes salas. O primeiro 
computador a sério – o ENIAC, ou Electronic Numerical Integrator and Computer – era constituído por 
30 blocos e pesava 30 toneladas. Foi construído em 1946 na Universidade da Pensilvânia, com um 
custo de 487.000 dólares. Desde então, as tecnologias de computação evoluíram muito. Hoje, um 
comum PC Pentium III possui mais poder de computação do que a soma de todos os computadores 
que existiam em 1950. Mais ainda, hoje há um PC em praticamente todas as secretárias. Mas isso 
não significa que os grandes computadores – em tamanho ou em desempenho – tenham 
desaparecido. Bem pelo contrário: os cientistas têm construído supercomputadores (SCs) com 
centenas de processadores, que efectuam muitos mi-lhares de milhões de operações por segundo.

A construção de SCs foi impulsionada, sobretudo, pela Guerra Fria. Eram necessários sistemas 
capazes de lidar com complexos problemas científicos e de engenharia, que usavam extensivamente 
cálculos de vírgula flutuante. As exigências computacionais deste trabalho – relacionado com a 
investigação nuclear e com a corrida ao espaço, em particular com dese-nho de aeronaves –, 
combinadas com a necessidade de alcançar resultados rápidos, fizeram com que os custos elevados 
não fossem obstáculo. Refira-se que o primeiro sistema Cray-1, instalado em 1976 no Los Alamos 
National Laboratory, custou a módica quantia de 8,8 milhões de dólares. Atingia 167 MFLOPS e tinha 
8MB de memória.

O fim da Guerra Fria, logo após a queda do muro de Berlim em 1989, parecia ditar também o fim 
destas poderosas máquinas. Mas isso não sucedeu – os supercomputadores tornaram-se essenciais 
nos mais variados ramos da investigação científica. 

Trabalhos pesados

A ASCI (Accelerated Strategic Computing Initiative), uma iniciativa do Governo dos Estados Unidos 
cujo objectivo é, na essência, substituir os testes nucleares no solo por simulações em computador, 
tem sido um dos principais motores de desenvolvimento dos SCs. A criação de simulações virtuais – 
tarefa desenvolvida em três laboratórios: Lawrence Livermore National Laboratory, Los Alamos National 
Laboratory e Sandia National Laboratories – tem sido o principal estímulo à construção de 
supercomputadores pela indústria. Os supercomputadores são hoje usados em muitas áreas além da 
investigação militar: operações matemáticas complexas e cálculos físicos; animação cinematográfica; 
prospecção de petróleo e de minérios; previsão meteorológica; investigação médica; crash tests; 
estudos de aerodinâmica; previsões sísmicas; gestão de bases de dados gigantescas.

No campo da medicina, é notório o papel destas máquinas na investigação da SIDA. Há bem pouco 
tempo, cientistas de Los Alamos traçaram um mapa da evolução do HIV nos últimos 70 anos. A 
extrapolação dos inúmeros cenários possíveis de reprodução e mutação do vírus não teria sido 
possível sem um SC. O mesmo acontece com o Projecto do Genoma Humano – até 2003, cientistas 
e supercomputadores terão feito a descodificação da totalidade do genoma humano.

Tecnologia de ponta

Os supercomputadores foram, inicialmente, máquinas muito caras. Mas o dinheiro não era problema; 
interessava apenas a rapidez com que eram produzidos e o seu desempenho. Contudo, depois de 
1989 os fundos dedicados à investigação nesta área diminuíram drasticamente. Os fabricantes 
estiveram à altura do desafio: as máquinas passaram a incluir componentes das comuns estações de 
trabalho (IBM Power2, HP PA-RISC 7200, SGI MIPS R8000); aumentou-se a escalonabilidade através 
do acréscimo de processadores e discos rígidos; passaram a usar-se sistemas operativos de 
estações de trabalho (por exemplo, IBM AIX, Sun Solaris, SGI Irix).

O Top500 dos supercomputadores (www.top500.org) reflecte três aspectos: a diversificação das 
tecnologias utilizadas; as brutais diferenças de desempenho entre os modelos de diferentes gamas; e 
o crescente poder de computação das estações de trabalho topo de gama. A maioria das máquinas 
no ranking pertence a construtores americanos – IBM, Silicon Graphics (SGI), Sun Microsystems e 
Hewlett-Packard. 

Boa parte dos SCs (os IBM e Sun são um exemplo disso) emprega arquitecturas de processamento 
paralelo, cuja principal vantagem é ser escalonável. Existem diversas variantes do processamento 
paralelo, cada qual com vantagens e desvantagens particulares. No SMP (Symmetric 
Multiprocessing), múltiplos processadores partilham a memória RAM e o bus do sistema, o que facilita 
a programação das aplicações mas pode causar engarrafamentos no tráfego de dados. O MPP 
(Massively Parallel Processing) não usa memória partilhada, distribuindo-a pelos processadores: a 
programação de aplicações é mais difícil e podem surgir problemas de sincronização dos dados. O 
SPP (Scalable Parallel Processing) é uma arquitectura híbrida que recorre a uma hierarquia de dois 
níveis de memória – o primeiro é do tipo SMP e o segundo do tipo MPP. Outros supercomputadores, 
como os da Cray (empresa que pertencia à SGI e que foi, em Maio, comprada pela Tera), usam o 
processamento vectorial. Basicamente, o processamento paralelo distribui as tarefas de computação 
por muitos processadores a trabalhar em simultâneo, ao passo que o vectorial supõe a utilização de 
menos processadores, mas mais poderosos. 

Os três supercomputadores mais poderosos usam processadores diferentes: o ASCI Red foi 
construído com o Pentium Pro da Intel; o Blue Pacific, com o Motorola PowerPC 604e; e o Blue 
Pacific, com chips da própria SGI. No que aos processadores diz respeito, algumas empresas, como 
a Vitesse Semiconductor, usam alternativas ao silício – o arsenieto de gálio, um composto com maior 
capacidade condutora. Os microprocessadores da Vitesse têm sido integrados nos mainframes e 
supercomputadores da Convex, Sun e HP.

Destacam-se ainda duas tendências: a crescente utilização do Linux e das arquitecturas clustering 
(ao invés de se juntarem milhares de processadores, ligam-se centenas de poderosas estações de 
trabalho). As máquinas deste tipo têm vindo a ganhar destaque no ranking de super-PCs. Em Abril 
deste ano, uma equipa de Los Alamos criou, por 152.000 dólares (uma pechincha), o Avalon, que 
ocupa o honroso 256.º lugar no Top500. Mais barato ainda ficou o computador construído por 
investigadores da Universidade do Tennessee, um cluster de 16 nós que custou 25.000 dólares e foi 
feito a partir de velhos PCs 486. A ideia na base destes projectos é simples – combinar componentes 
comuns com software open-source, como o Linux. Estas máquinas são genericamente designadas 
como sistemas Beowulf.

Projectos promissores

Para os três laboratórios americanos envolvidos na criação e manutenção de armas – Sandia, 
Lawrence a Los Alamos – é tempo de upgrade. Ao abrigo do programa ASCI, o governo dos EUA irá 
proceder à instalação de novas supermáquinas.

Neste sentido, a IBM está a trabalhar no ASCI White, o sucessor do Blue Pacific, instalado no 
laboratório Lawrence Livermore. O espaço onde ficará alojado o novo computador (uma área do 
tamanho de dois campos de basquetebol) começou a ser ocupado no mês de Junho. O ASCI White 
registará melhoramentos consideráveis em relação ao seu antecessor. Ao invés do chip PowerPC 604 
da Motorola (de 32 bits), o novo ASCI utilizará processadores Power3-II de 64 bits. E, em vez do 
sistema SP da IBM, o White empregará a tecnologia Colony, para fazer a transferência de dados entre 
os nós da máquina – a capacidade de comunicação aumentará de 150 para 500MB/s. Feitas as 
contas, o ASCI White, avaliado em 130 milhões de dólares, será 60% mais veloz que o Blue Pacific.

Em Los Alamos, decorre a corrida aos 30 TeraFLOPS, disputada pela SGI e pela Sun Microsystems 
(terceiro maior fabricante de SCs). A SGI, que está com problemas financeiros, concorre com o T30, 
máquina em relação à qual existem várias dúvidas. Sabe-se que a SGI vai abandonar tecnologias por 
si desenvolvidas – os chips e o sistema operativo Irix (variante do UNIX) – e adoptar, respectivamente, 
os processadores IA-64 da Intel e o SO Linux. Saber como e com que eficácia a SGI fará esta 
transição no T30 é o principal ponto de interrogação. A Sun, por seu turno, está a trabalhar no 
sucessor do E-10000, que marca lugar no Top500. Esta máquina acomodará mais de 100 dos novos 
chips UltraSparc- -III da Sun, devendo ser lançada em meados deste ano.

A IBM está também a trabalhar num computador dedicado à investigação científica – o Blue Gene –, 
orçamentado em 100 milhões de dólares. Quando estiver pronto, dentro de quatro anos, o Blue Gene 
servirá para compreender e replicar o modo como os aminoácidos no corpo humano se autoconvertem 
em proteínas. Também no campo da ciência, a NEC está a construir um SC destinado ao projecto 
Earth Simulator. O Ultra Computer, que será usado na simulação de fenómenos físicos e naturais da 
Terra, será baseado em processadores desenvolvidos pela NEC e num sistema UNIX. Prevê-se que 
este SC fique pronto em Março de 2002 e atinja os 40 TeraFLOPS.

Supercomputador hoje, PC amanhã

O elevado ritmo de evolução da informática, traduzido de uma forma clara pelas Leis de Moore, faz 
com que o desempenho dos supercomputadores de hoje possa, em alguns anos, estar acessível a 
partir de um microcomputador colocado sobre a nossa secretária. Uma análise da evolução da 
tecnologia informática permite tirar conclusões e até fazer previsões bem fundadas.

Em 1976, se tivéssemos meio milhão de contos a pesar-nos no bolso, poderíamos comprar a nata 
dos supercomputadores, o Cray 1. Este velho SC tinha uma velocidade máxima de 167 MFLOPS, 
valor bastante inferior ao dos microprocessadores da actualidade. Relativamente ao Pentium III a 
600MHz, por exemplo, o seu custo era mil vezes superior e o desempenho quatro vezes inferior. E só 
estamos a falar do Cray 1 de base. Dependendo da configuração do hardware, poderíamos gastar algo 
como 1,5 milhões de contos e, mais ainda, precisaríamos de uma grande casa para o alojar. 

Falamos de tecnologia com mais de duas décadas: o que podemos esperar daqui a 20 anos? Não é 
de esperar ver algo tão poderoso como o ASCI Red disponível num desktop, mas, se pensarmos num 
sistema com o mesmo nível do Cray 1 em 1976, estamos confiantes que a máquina que teremos em 
2020 será tão poderosa como o Cray T3E (264 GFLOPS), utilizado no United Kingdom Meteorological 
Office (Met. Office) ou seja, cerca de 380 vezes superior ao Pentium III 600. A barreira do TeraFLOPS 
deverá ser ultrapassada poucos anos depois, provavelmente antes de 2030. 

Além de velocidade, que mais podemos esperar desses computadores? A memória RAM exigida 
pelas aplicações aumenta anualmente – na verdade, parece duplicar. Em 1996 eram suficientes 8MB; 
em 1997, 16MB; em 98, 32MB; em 99, 64MB; e actualmente, 128MB é o tudo o que nos faz falta para 
aproveitar ao máximo as potencialidades do nosso PC. Se seguirmos esta lógica, então em 2020 
deveremos ter um sistema de 26,4 TeraBytes (TB), já para não mencionar os mais de 2000TB de 
disco rígido. Isso é muito mais do que o ASCI Red tem actualmente. Assim sendo, talvez estes 
números sejam um pouco exagerados. Mas é claro que, nessa altura, os computadores serão 
fabricados de uma forma radicalmente diferente. É provável que, no futuro, os conceitos de DIMMs e 
de discos rígidos sejam tão hilariantes como são hoje os de válvulas e cartões perfurados. A única 
coisa de que podemos ter a certeza é que o PC do ano 2020 fará com que o Pentium III actual pareça 
um Sinclair ZX81.

A história dos Supercomputadores

1955: O IBM 704 é apresentado. Foi o primeiro computador comercial capaz de efectuar operações 
com vírgula flutu- ante. Podia alcançar uns “extraordinários” 5 KFLOPS ou 0,005 MFLOPS.

1956: A IBM inicia o projecto STRECH com o objectivo de produzir um supercomputador, 100 vezes 
mais poderoso que qualquer computador disponível na época, para o Laboratório Nacional de Los Alamos.

1958: Seymour Cray funda a Control Data Corporation. O Gamma 60 é anunciado pela Bull, com sede 
em França. Foram construídos 19 destes modelos.

1959: A IBM entrega o primeiro computador STRECH e são construídos mais sete. Os modelos da 
IBM 7079 e 7094 continuaram a utilizar a tecnologia STRECH.

1960: A Control Data começa a trabalhar no CDC 6600. A Honeywell lança o Honeywell 800, com 
algumas capacidades multitarefa – podia distribuir o tempo de utilização por oito programas.

1962: A Control Data lança o CDC 1604, uma máquina similar ao IBM 7090. Na Inglaterra, o 
computador Atlas, um projecto conjunto da Ferranti e da Universidade de Manchester, fica operacional. 
É a primeira máquina a utilizar memória virtual e é capaz de 0,2 MFLOPS.

1964: A Control Data lança o CDC 6600, que acaba por ser o primeiro supercomputador de sucesso. A 
CDC também constrói o STAR-100, a primeira máquina a tirar verdadeiro partido da arquitectura de 
processamento paralelo.

1966: A UNIVAC entrega o 1108, uma máquina de multiprocessadores com três processadores, dois 
controladores IO e um sistema operativo multitarefa – suporta a execução de vários programas em 
simultâneo.

1967: O supercomputador BESM-6 começa a ser produzido em Moscovo. Contém memória virtual e 
consegue atingir 1 MIPS.

1968: A Control Data começa a analisar o problema do processamento de imagem com um 
computador. A investigação eventualmente dá origem ao CDC AFP e ao Cyberplus. O IBM 2938 Array 
Processor alcança os 10 MFLOPS. 

1969: A Control Data produz um sistema de processamento de imagens produzidas por radar 
chamado Cyberplus. Funciona 250 vezes mais rapidamente do que o 6600. A Intel introduz a primeira 
CPU de um único chip, o 4004.

1972: O Seymour Cray abandona a Control Data para fundar a Cray Research Inc.

1973: A primeira rede Ethernet é construída no centro de desenvolvimento e investigação Xerox PARC.

1976: A Cray Research entrega o Cray-1 ao Laboratório Nacional de Los Alamos, atingindo a 
velocidade de 167 MFLOPS.

1977: A NASA começa a planear um sistema de Massively Parallel Processing para processamento 
rápido de imagens.

1979: Em Toulouse, o sistema dataflow com 32 processadores fica operacional. A IBM cria o primeiro 
processador RISC básico.

1981: A Silicon Graphics Inc. é fundada e tem como objectivo produzir máquinas gráficas de grande 
desempenho – actividade que ainda hoje mantém.

1982: A Hitachi lança o computador vectorial S-810, capaz de atingir os 800 MFLOPS. A MITI 
japonesa começa a trabalhar num projecto de dez anos para produzir um supercomputador de 10 
GFLOPS, salto de gigante para a época.

1984: A Cray lança o CRAY X-MP, disponível nas versões de um e quatro processadores, e um 
sistema operativo chamado CX-O, muito similar ao Unix.

1985: A Cray produz o CRAY-2 com um processador principal e quatro processadores auxiliares e 256 
MWord de memória.

1986: Surge a primeira máquina compatível Cray: o SCS-40 – um mini-supercomputador.

1988: A Silicon Graphics produz a Power Series, com capacidade de suportar até oito processadores 
MIPS R2000 RISC.

1989: O Seymour Cray começa de novo com a Cray Computer Corporation.

1991: A Cray Research produz o C90. A Fujitsu produz o supercomputador VP-2600.

1992: Um NEC SX-344 com quatro processadores atinge os 20 GFLOPS.

1996: O supercomputador ASCI Red, com 7000 processadores Pentium Pro, quebra a barreira do 
TeraFLOPS.

1997: O ASCI Red tem agora 9200 processadores e uma velocidade máxima de 1,8 TFLOPS. O IBM 
Deep Blue torna-se o primeiro computador a bater um campeão mundial de xadrez. Gary Kasparov foi 
a vítima.

1998: O Blue Montain, construído pela SGI, é apresentado, provando ser o sistema gráfico mais 
poderoso do mundo. O Blue Pacific SST é construído pela IBM.

1999: A IBM inicia a construção do Blue Gene, sucessor do ASCI Blue Pacific. Depois de terminado, 
a acontecer em 2004 ou 2005, será capaz de ultrapassar o PetaFLOPS (1000 TFLOPS), utilizando um 
milhão de processadores.

2000: A NEC recebe uma encomeda para produzir um sistema denominado Earth Simulator de 40 
TFLOPS.

Glossário

MIPS – Milhões de instruções por segundo. Dão uma ideia básica da velocidade de um processador. 
Os MIPS não são considerados tão fidedignos como os MFLOPS.

MFLOPS – Milhões de operações de vírgula flutuante por segundo. Os MFLOPS têm vindo a substituir 
os MIPS na medição da velocidade dos computadores. Os MFLOPS são considerados um valor mais 
representativo do poder da máquina e indicam as operações que utilizam números com vírgula 
flutuante – os MIPS medem as operações que utilizam números inteiros. Um processador Pentium III 
a 600MHz alcança um valor ligeiramente superior a 690 MFLOPS.

GFLOPS – Mil milhões de operações de vírgula flutuante por segundo, ou seja 1000 MFLOPS.

TFLOPS – TeraFLOPS. Equivalente a 1000 GFLOPS.

PFLOPS – PentaFLOPS. Equivalente a 1000 TFLOPS.

MPP – Massively Parallel Processing. Os supercomputadores precisam de um grande número de 
processadores e a melhor forma de os organizar é em paralelo. Esta é a arquitectura que permite 
maior velocidade. Por outro lado, aumenta drasticamente a complexidade da programação do software, 
pois os programas para os sistemas MIPP têm de ser criados de forma a haver uma divisão do 
trabalho pelos vários processadores.

RISC – Reduced Instruction Set Computer. Os processadores RISC são os favoritos entre os 
fabricantes de supercomputadores, porque são mais rápidos do que os processadores mais usuais. 
São tecnologicamente mais simples e têm um conjunto de instruções extremamente limitado. Assim, 
embora seja mais difícil programá-los, os RISC são mais eficientes.

Word – Os supercomputadores são demasiado poderosos para utilizarem os velhos bytes como 
medida, por isso a sua memória é expressa em Words. Uma Word é equivalente a oito bytes, assim 
128KWords é o mesmo que um megabyte.