(Alguns documentos e instituições estão preferindo o termo "advanced computing", como uma forma mais ampla quando comparado com "High Performance Computing". O termo HPC pode passar a ideia de estar limitando apenas a Clusters, PetaFlops e MPI. Geralmente esse termo agrega um escopo mais amplo, incluindo Grids, Clouds, Virtualização, Workflow, DataManagement, DataAnalitics, entre outros. Acredito que isso está alinhado com a perspectiva do CTBS. Acho que temos usado o "Computação Científica" (em NCC) com esse intuito)
Com as limitações ao simples aumento de frequência e com aumento constante na quantidade de dados, é preciso fazer com que os sistemas escalem usando múltiplos cores, múltiplos servidores e múltiplos datacenters. E o nível de paralelismo esperado não é mais na ordem de dezenas (ou centenas) de cores, mas em dezenas de milhares. (Indispensável considerações de tolerância a falhas, especialmente em software).
Da mesma forma, pesquisa e aplicação de instruções, aceleradores e arquiteturas específicas. ARM, GPGPU (Nvidia Tesla), ManyCore (Intel XeonPhi), FPGA. O futuro é um ecossistema diverso, heterogêneo.
A utilização de recursos geograficamente distribuídos, a integração de sistemas e sua disponibilidade em qualquer lugar são indispensáveis para o ferramental computacional da próxima década. Redes capazes de permitir essa interconexão de forma confiável, previsível e dinâmica se tornam absolutamente indispensáveis.
De uma forma geral, os sistemas de HPC foram otimizados para aplicações que exigem um processamento intensivo, com uma moderada utilização de dados ou comunicação. Essa nova vertente de simulações "data intensive" exige que novos mecanismos seja desenvolvidos para lidar com essa grande quantidade de dados. Ao se analisar hoje o workflow incluindo das transferências de dados, é possível entender que muitas vezes os gargalos não estão no processamento, mas nas transferências dos dados. Isso se tornará cada vez mais crítico com o aumento dos dados e a integração de diversos sistemas. Escalonar o processo próximo ao dado (MapReduce) é outro exemplo de técnica desenvolvida recentemente para lidar com grandes volumes de dados. Além disso, novas modelagens matemáticas estão sendo incorporadas, com por exemplo algorítimos baseados em aprendizado de máquina.
(recursos computacionais)
(recursos humanos)
antalya escort bursa escort eskisehir escort istanbul escort izmir escort