Accueil > FORUM TERATEC > Programme > Atelier 5

Forum TERATEC 2014
Atelier 5 - Mercredi 2 juillet

HPC & Big Data – logiciels et outils

Présidé par Pascale BERNIER-BRUNA, BULL - Marie-Christine SAWLEY, INTEL - Jean-Philippe NOMINE, CEA

Maîtrise de la consommation énergétique, programmation efficace et exécution optimisée, résilience et tolérance aux pannes : telles sont les principales qualités attendues des futurs systèmes de calcul haute performance et de traitement de Big Data – autant de défis sur la route d’exascale.

Cette session s'est déroulée en deux temps : tout d’abord  une suite de cinq exposés qui ont permi de faire le point sur  l’état de l’art et les perspectives sur ces différents thèmes ; suite à cette première partie,  une table ronde a permi la discussion entre les divers intervenants et le public sur ces thèmes..

Energy modeling and optimization for HPC
Benoit PRADELLE, UVSQ

Résumé & Biographie

Télécharger la présentation

Energy Aware Computing
Dr. Luigi BROCHARD, IBM Distinguished Engineer

Résumé & Biographie

Télécharger la présentation

MAQAO: une suite d'outils pour l'analyse et l’optimisation des performances
Andrés S. CHARIF-RUBIAL, UVSQ / ECR Lab - William JALBY, UVSQ / ECR Lab

Résumé & Biographie

Télécharger la présentation

Maximize the efficiency of your cluster with Allinea tools
Patrick WOHLSCHLEGEL, EMEA Presales Engineer, ALLINEA

Résumé & Biographie

Télécharger la présentation

“Advanced Multi Fault Tolerance” in parallel applications: Multi level storage with FTI middleware
Eric BOYER, CINES

Résumé & Biographie

Télécharger la présentation

 


© TERATEC 2014

Pour retrouver les ateliers techniques des précédentes éditions du Forum TERATEC traitant du Big Data et télécharger les présentations.

Le monde moderne doit faire face à un nouveau défi : le déluge de données. Que ce soient des données d'origine domestique ou scientifique, de tels volumes ne se manipulent plus avec les outils du passé. Il faut désormais faire appel à des solutions de stockage et de traitement massif comme celles du HPC et celles des grands entrepôts de données de l'informatique décisionnelle (Business Intelligence), permettant le passage à l'échelle des méthodes innovantes pour exploiter au mieux les informations qui nous submergent. La session Big Data s'est proposée de jeter un éclairage actualisé sur les problématiques liées aux grands volumes et aux temps de traitement sous les angles du HPC et de l'informatique décisionnelle. Des acteurs du monde scientifique et du monde industriel ont illustré ces deux aspects aux travers d'exemples tirés de leur domaine et ont mis en avant les apports respectifs du HPC et du décisionnel, approches en cours de convergence dans leur relation au Big Data.

Chercheurs et ingénieurs sont depuis longtemps producteurs et consommateurs de grandes masses de données : issues de calculs, d’observations, de mesures, ou encore de CAO et de modèles numériques ; de volumes sans cesse croissants, avec une distribution et une circulation de plus en plus poussées sur réseau. Mais d’autres masses de données déferlent désormais autour de nous : commerciales, administratives, financières, multimedia, sur les réseaux sociaux, issues de capteurs, relatives à des objets nomades.... Qu’elles soient privées ou publiques, les modalités de représentation, stockage, traitement, analyse et exploitation de ces données repoussent les limites des approches conventionnelles ou appellent de nouvelles méthodes et techniques pour livrer leur sens et produire de la valeur. Cet atelier a demandé à des observateurs et acteurs éclairés de ces phénomènes de nous livrer leur vision et quelques exemples et éléments pouvant inspirer notre réflexion.

 

 

 

 

 

 

 

© TERATEC - Tous droits réservés - Mentions légales