No final da década de 1970, como jovem pesquisador do Argonne National Laboratory, nos arredores de Chicago, Jack Dongarra ajudou a escrever um código de computador chamado Linpack.
O Linpack ofereceu uma maneira de executar matemática complexa no que hoje chamamos de supercomputadores. Tornou-se uma ferramenta vital para os laboratórios científicos, pois estenderam os limites do que um computador poderia fazer. Isso incluiu a previsão de padrões climáticos, modelagem de economias e simulação de explosões nucleares.
Na quarta-feira, a Association for Computing Machinery, a maior sociedade mundial de profissionais de computação, disse que o Dr. Dongarra, 71, receberá o Turing Award deste ano por seu trabalho em conceitos e códigos fundamentais que permitiram que softwares de computador acompanhassem o ritmo do hardware dentro do computador. máquinas mais poderosas do mundo. Dado desde 1966 e muitas vezes chamado de Prêmio Nobel da computação, o Prêmio Turing vem com um prêmio de US$ 1 milhão.
No início dos anos 1990, usando o código Linpack (abreviação de pacote de álgebra linear), Dr. Dongarra e seus colaboradores também criaram um novo tipo de teste que poderia medir o poder de um supercomputador. Eles se concentraram em quantos cálculos poderiam ser executados a cada segundo que passava. Isso se tornou o principal meio de comparar as máquinas mais rápidas do mundo, entender o que elas podiam fazer e entender como elas precisavam mudar.
“As pessoas na ciência costumam dizer: ‘Se você não pode medir, você não sabe o que é'”, disse Paul Messina, que supervisionou o Departamento de Energia Projeto de Computação Exascale, um esforço para construir software para os principais supercomputadores do país. “É por isso que o trabalho de Jack é importante.”
Dr. Dongarra, agora professor da Universidade do Tennessee e pesquisador do Laboratório Nacional de Oak Ridge, era um jovem pesquisador em Chicago quando se especializou em álgebra linear, uma forma de matemática que sustenta muitas das tarefas mais ambiciosas em ciência da computação . Isso inclui tudo, desde simulações computadorizadas de climas e economias até tecnologia de inteligência artificial destinada a imitar o cérebro humano. Desenvolvido com pesquisadores de vários laboratórios americanos, o Linpack – que é algo chamado de biblioteca de software – ajudou os pesquisadores a executar essa matemática em uma ampla variedade de máquinas.
“Basicamente, esses são os algoritmos de que você precisa quando está lidando com problemas de engenharia, física, ciências naturais ou economia”, disse Ewa Deelman, professora de ciência da computação da Universidade do Sul da Califórnia, especializada em software usado por supercomputadores. “Eles deixam os cientistas fazerem seu trabalho.”
Ao longo dos anos, à medida que continuou a melhorar e expandir o Linpack e adaptar a biblioteca para novos tipos de máquinas, o Dr. Dongarra também desenvolveu algoritmos que poderiam aumentar o poder e a eficiência dos supercomputadores. À medida que o hardware dentro das máquinas continuava a melhorar, o mesmo acontecia com o software.
No início da década de 1990, os cientistas não conseguiam concordar sobre as melhores maneiras de medir o progresso dos supercomputadores. Assim, o Dr. Dongarra e seus colegas criaram o benchmark Linpack e começaram a publicar uma lista das 500 máquinas mais poderosas do mundo.
Atualizado e lançado duas vezes por ano, o Lista dos 500 melhores – que omite o espaço entre “Top” e “500” – levou a uma competição entre laboratórios científicos para ver quem poderia construir a máquina mais rápida. O que começou como uma batalha pelo direito de se gabar desenvolveu uma vantagem adicional à medida que os laboratórios no Japão e na China desafiavam as fortalezas tradicionais nos Estados Unidos.
“Existe um paralelo direto entre quanto poder de computação você tem dentro de um país e os tipos de problemas que você pode resolver”, disse Deelman.
A lista também é uma forma de entender como a tecnologia está evoluindo. Nos anos 2000, mostrou que os supercomputadores mais poderosos eram aqueles que conectavam milhares de minúsculos computadores em um todo gigantesco, cada um equipado com o mesmo tipo de chip de computador usado em PCs de mesa e laptops.
Nos anos que se seguiram, acompanhou a ascensão dos serviços de “computação em nuvem” da Amazon, Google e Microsoft, que conectaram máquinas pequenas em números ainda maiores.
Esses serviços em nuvem são o futuro da computação científica, já que Amazon, Google e outros gigantes da internet constroem novos tipos de chips de computador que podem treinar sistemas de IA com velocidade e eficiência que nunca foram possíveis no passado, disse Dongarra em entrevista.
“Essas empresas estão construindo chips sob medida para suas próprias necessidades, e isso terá um grande impacto”, disse ele. “Vamos confiar mais na computação em nuvem e, eventualmente, desistir das máquinas ‘grandes’ dentro dos laboratórios nacionais hoje.”
Os cientistas também estão desenvolvendo um novo tipo de máquina chamada computador quântico, que pode fazer as máquinas de hoje parecerem brinquedos em comparação. À medida que os computadores do mundo continuam a evoluir, eles precisarão de novos benchmarks.
“Os fabricantes vão se gabar dessas coisas”, disse Dongarra. “A questão é: qual é a realidade?”
Discussão sobre isso post