Sites Grátis no Comunidades.net


Total de visitas: 11488
Batterie ASUS UX31E Ultrabook

C’est le projet de simulation le plus ambitieux jamais lancé. Celui de reproduire, sur ordinateur, la complexité d’un cerveau humain. Il fait partie d’Humain brain project (HBP), doté de 1 milliard d’euros sur dix ans, et codirigé par l’École polythechnique fédérale de Lausanne (EPFL) et l’université de Heidelberg (Allemagne). Objectif : élucider le fonctionnement de notre cerveau. Avec des retombées attendues en neurosciences, en médecine et en informatique. Les expériences in silico [ndlr. soit au moyen de modèles informatiques] permettront aux neurochercheurs d’approfondir leurs connaissances des fonctions cérébrales. Les médecins pourront, eux, utiliser des simulations du cerveau pour reconstituer des maladies, rechercher leur origine et définir le bon traitement. Quant à l’informatique, qui joue un rôle clé dans ces études, elle devrait profiter de nouvelles architectures d’ordinateurs qui rendraient alors réalisables des tâches aujourd’hui impossibles.

Pour tous ces bénéfices, le consortium HBP (80 partenaires) a lancé plusieurs sous-projets en parallèle. Le premier consiste à construire pas à pas, en intégrant en continu les données issues de la recherche en biologie, une plate-forme logicielle qui simule la structure et le comportement d’un cerveau, en recourant aux supercalculateurs. Le but est d’identifier les architectures neuronales responsables de fonctions spécifiques et de faire le lien entre ces mécanismes et certaines maladies neurologiques ou psychiatriques. Le HBP ne part pas de zéro. Il marche sur les pas du projet Blue brain, mené par l’EPFL, qui a effectué en 2012 une simulation portant sur un million de neurones et un milliard de synapses. Soit l’équivalent du cerveau… d’une abeille.
Le nouveau programme se fixe pour premier objectif le cerveau d’un rat, soit 21 millions de neurones ! Quant au cerveau humain, ce sont 86 milliards de neurones qu’il faudra modéliser… Dans un premier temps, Le HBP devrait utiliser les supercalculateurs disponibles en Europe, avant de bâtir ses propres moyens de calcul au centre de recherche de Jülich (Allemagne) : 50 petaflops pour 2017-2018, puis une machine exaflops (soit 1 000 petaflops) prévue pour 2021-2022. Dernière ambition du projet, la conception et la construction de deux ordinateurs dits neuromorphiques. Des machines dont le fonctionnement ne ressemblera en rien à celui des calculateurs traditionnels, qui sont composés de processeurs et de mémoires, car elles tenteront de reproduire physiquement les réseaux de neurones du cerveau humain.

Difficile d’aller plus loin. Le Dark energy universe simulation-Full universe run (Deus-FUR), projet piloté par le laboratoire univers et théories (Luth), de l’Observatoire de Paris, a simulé tout l’univers observable, du big bang à nos jours. Et les chiffres laissent rêveur. Les simulations réalisées mettaient en jeu 550 milliards de particules, chacune dotée d’une masse équivalente à celle de notre Galaxie, dans un cube de 93 milliards d’années-lumière de côté. Ce programme tente de répondre à une question fondamentale de la cosmologie : pourquoi l’expansion de l’univers est-elle en accélération ? Selon cette théorie, 95 % de l’univers est constitué de composants invisibles, la matière et l’énergie noires. Et c’est cette mystérieuse énergie noire qui serait responsable de l’expansion accélérée. Comprendre ce qu’elle est permettrait d’appréhender la structure de l’univers (la répartition des galaxies), et inversement.

Trois simulations ont été réalisées, selon trois modèles différents, sur le supercalculateur Curie du CEA. Au total, 1,5 petaoctet de données a été engendré, qu’il s’agit maintenant d’interpréter. Les chercheurs veulent savoir quel est le meilleur modèle pour la compréhension de l’énergie noire, et quelles seraient les conséquences d’une telle découverte sur la théorie cosmologique. D’autres laboratoires avaient auparavant effectué ce type de simulation, à plus petite échelle, notamment au Korea institute for advanced study et à l’institut Max Planck d’astrophysique (Allemagne). Aux États-Unis, six laboratoires, pilotés par l’Argonne national laboratory, ont lancé, en mars 2013, un programme de trois ans qui traque l’énergie noire à l’aide de simulations sur les plus puissants ordinateurs disponibles.

Toutes les équipes s’efforcent d’optimiser les codes de calcul pour les adapter aux ordinateurs qui vont les exécuter. Dans des projets comme ceux-là, ce n’est pas seulement un problème de puissance de calcul : il faut simultanément se préoccuper de la gestion de la mémoire et des données, des entrées-sorties…, explique Jean-Michel Alimi, directeur de recherche au CNRS, et responsable de Deus. Mais il devient très difficile de faire évoluer un code quand on veut changer la modélisation physique, ou quand il faut adapter le programme aux nouvelles architectures des supercalculateurs. Aujourd’hui, les chercheurs doivent concevoir des codes en prenant garde à bien séparer la modélisation des aspects proprement informatiques. Par ailleurs, les résultats de ces simulations doivent également servir aux projets d’observation spatiale, eux aussi en quête de l’énergie noire. Qu’ils soient menés à partir de télescopes terrestres, comme la Dark energy survey, programme international lancé en septembre 2013 au Chili, ou à partir de satellites, comme le projet Euclid de l’Agence spatiale européenne, dont le lancement est prévu en 2020 par une fusée Soyouz.

PRÉVOIR LE CHANGEMENT CLIMATIQUE
En septembre 2013, le premier volet du cinquième rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) a confirmé les prévisions sur le réchauffement climatique jusqu’à la fin du siècle. Selon les scénarios envisagés, la hausse de température pourrait atteindre 5 °C, tandis que le niveau des océans monterait de 25 cm à presque 1 mètre (pour la vision pessimiste). L’impact significatif des activités humaines sur cette évolution a été confirmé. Ces conclusions s’appuient sur les mesures et observations réalisées dans le monde. Et sur des simulations numériques à l’échelle de la planète. Le défi est mondial, et une vingtaine de groupes de recherche tentent de le relever. Les chercheurs mettent au point des modèles physiques des différents éléments agissant sur le climat : l’atmosphère, les continents, les océans, la banquise… et, bien sûr, l’humain qui engendre des gaz à effet de serre et des aérosols. Ces modèles sont ensuite assemblés, couplés, et assistés par des supercalculateurs pour produire des données sur l’évolution des températures, des précipitations… Si le développement des différents modèles se fait en ordre dispersé (il en existe une quarantaine), les experts mondiaux se sont en revanche mis d’accord sur la façon de les tester. Ainsi, le programme Coupled model intercomparison project (CMIP5) a permis de comparer les résultats obtenus par tous ces modèles sur les mêmes exercices de simulation.

Deux systèmes climatiques sont développés en parallèle dans l’Hexagone, l’un par Météo France, l’autre par l’Institut Pierre-Simon Laplace (IPSL). L’objectif général des tests comparatifs est d’améliorer la fiabilité des résultats de simulation et, à terme, de faire converger les différents modèles. C’est ce qui se passe aujourd’hui pour les phénomènes d’écoulements, régis par les lois de la mécanique des fluides. Les difficultés – et les divergences – sont bien plus vives quand il s’agit de modéliser d’autres éléments (transfert radiatif, chimie…) ou pour ce qui se produit à plus petite échelle, en dessous du maillage choisi pour les calculs, qui découpe l’atmosphère en unités de quelques dizaines de kilomètres de côté. Les tests menés dans le cadre du CMIP permettent d’écarter certains modèles jugés non pertinents pour tel ou tel phénomène, mais pas de définir le meilleur, précise Jean-Louis Dufresne, responsable du centre de modélisation du climat de l’IPSL. Toutes les équipes s’efforcent de réduire l’incertitude qui pèse sur le résultat des simulations, même si la nature chaotique du climat empêche de l’éliminer complètement. Par ailleurs, les programmes de simulation eux-mêmes doivent être actualisés pour exploiter les nouvelles architectures d’ordinateurs massivement parallèles.PC Portable Batterie | Batterie pour ordinateur portable et adaptateur boutique - www.fr-batterie-portable.com

ÉLUCIDER UNE COMPOSANTE DU VIRUS HIV
Une avancée dans la recherche contre le sida ! La structure de la capside, la coque qui protège le matériel génétique du virus et s’ouvre pour le libérer dans une cellule, a pu être entièrement reproduite par des chercheurs de l’université de l’Illinois à Urbana-Champaign (UIUC). Un assemblage de 1 300 protéines, représentant 64 millions d’atomes. C’est l’une des plus grandes simulations réalisées au niveau des atomes. De cette capside, on ne connaissait que des parties, observées expérimentalement par tomographie, résonance magnétique nucléaire… Élucider sa structure complète doit servir à mieux comprendre les mécanismes d’action du virus et à élaborer de nouvelles techniques pour le combattre.

Achat Fujitsu batterie ordinateur portable - fr-batterie-portable.com
http://www.fr-batterie-portable.com/fujitsu.html
Batterie neuve pour Fujitsu ordinateur portable! Achat immédiat 20% de réduction! Livraison rapide et Economies garanties en batterie !

Achat Apple batterie ordinateur portable - fr-batterie-portable.com
http://www.fr-batterie-portable.com/apple.html
Batterie neuve pour Apple ordinateur portable! Achat immédiat 20% de réduction! Livraison rapide et Economies garanties en batterie !

Achat Sony batterie ordinateur portable - fr-batterie-portable.com
http://www.fr-batterie-portable.com/sony.html
Batterie neuve pour Sony ordinateur portable! Achat immédiat 20% de réduction! Livraison rapide et Economies garanties en batterie !