background preloader

Data centers: la donnée écolo

Data centers: la donnée écolo
Il y en a des milliers dans le monde. Plus d’une centaine en France. Les data centers sont la face cachée d’Internet ; on y a recours tous les jours. En 2011, Google possédait à lui seul 900 000 serveurs. Il y a un an, l’ONG a tiré la sonnette d’alarme, rappelant que les data centers étaient responsables de 2% des émissions de CO2. Eau de mer. Mais comment y parvenir ? OVH a par exemple inventé son propre système de water cooling, ou «refroidissement à eau». Et quid de la chaleur émise en continu par les data centers ? Energies vertes, réduction de la consommation, recyclage de la chaleur… Ces initiatives suffiront-elles à limiter l’impact environnemental des data centers ? L’évolution des composants électroniques devrait aider. «Ondulateurs».

Big data, l’enjeu du pouvoir Le Big Data, Le Cloud … Internet évolue maintenant si vite que ses nouveaux développements deviennent des enjeux majeurs avant même que le grand public ait eu le temps de les comprendre. Nous nous retrouvons donc à employer, lire, entendre mentionner des terminologies désignant des concepts ou des technologies dont nous savons qu’elles sont cruciales, sans pour autant avoir la moindre idée de leur nature. Un nom qui fait peur, pour un concept bien simple Au même titre que la mystérieuse appellation “Cloud” désigne tout simplement le stockage de données sur des serveurs distants mais bien réels, le concept de “Big Data” recouvre une réalité somme toute assez simple. Depuis une décennie, le volume et la variété des données informatiques que nous produisons ainsi que la rapidité avec laquelle nous les stockons et traitons ont littéralement explosés. Le Big Data - traduit officiellement par “mégadonnées” en français - désigne cette abondance de données et son exploitation.

Marilyn : le 1° datacenter écologique haute densité au monde En tant qu'opérateur, CELESTE est client de nombreux datacenters. Fort du constat de la vétusté et l'inadéquation des offres d'hébergement du marché, CELESTE a fait le choix de se doter de son propre centre informatique, répondant à ses besoins électriques et de haute-disponibilité. Marilyn, le datacenter de CELESTE a pour objectif de devenir une référence pour les entreprises tant sur sa haute disponibilité que sur la qualité des prestations proposées. Lors des études de conception, les équipes de CELESTE et ses bureaux d'étuds partenaires ont cherché à obtenir une bonne efficacité énergétique. Le brevet a été validé par l'INPI, l'office Européen des brevets ainsi que par l'UPPTO au niveau international Un datacenter innovant par sa consommation électrique réduite L’innovation principale du concept Marilyn repose sur la construction verticale du bâtiment. Plus d'information sur le free-cooling >

Comment le Big Data va révolutionner 2013 "2012 a été l'année de l'évangélisation, 2013 sera l'année de la mise en place." Chez Atos, géant international du service informatique, pas de doute : cette année verra la multiplication des systèmes d'analyse dits de "Big Data". Plus qu'un concept, cette "grosse quantité de données" (littéralement) renvoie à de nouveaux systèmes informatiques qui promettent de "révolutionner la vie quotidienne". Le Big Data a émergé face à un constat. "Internet a changé le monde des années 1990, le Big Data va changer celui des années 2010", anticipe Chuck Hollis, directeur technique du leader mondial du stockage EMC et gourou du Big Data. Prédire les crises cardiaques Mais dans la pratique, comment s'illustre ce Big Data ? Les applications du Big Data sont nombreuses. "L'analyse des sentiments est très recherchée puisqu'avec des outils de sémantique, nous sommes capables de dégager les différents sentiments manifestés en temps réel sur les réseaux sociaux, même le second degré !" Big Data et politique

Intel teste des bains d'huile pour refroidir des serveurs Immersion dans un bain d'huile Crédit Photo : Green Evolution Après plusieurs options en matière de refroidissement par air, le fondeur a testé, l'immersion des serveurs dans un bain d'huile pour réguler la température. Les tests sont encourageants surtout dans le domaine du HPC. Dans la course à la puissance des datacenters et des besoins en matière de refroidissements, Intel a peut-être trouvée une solution en immergeant les serveurs dans un bain d'huile. Intel vient de conclure un test qui a duré une année sur le refroidissement par immersion. Les bienfaits de l'huile sur le Green IT Les containers CarnotJet sont remplis de près de 950 litres de liquide de refroidissement et les serveurs sont insérés verticalement. Containers utilisés par Intel Crédit Photo: Green Evolution Le banc d'essai d'Intel a mis en parallèle deux racks de serveurs identiques, un utilisant une solution de refroidissement par air et l'autre plongée dans le container de Green Evolution.

Vertigineux "big data" Chaque seconde, la masse de données créées sur Internet par les smartphones, ordinateurs et tablettes explose. Appelé "big data" par les experts du Web, cet amas colossal est un marché prodigieux. LE MONDE | • Mis à jour le | Par Sarah Belouezzane et Cécile Ducourtieux Photos, vidéos, sons, chiffres, textes... Depuis la démocratisation de l'Internet haut débit, ce sont des milliards de données qui sont déversées par les particuliers, les entreprises et même l'Etat sur la Toile. Les spécialistes appellent ça le "big data", littéralement "grosse donnée"... Tous les jours, ce sont 118 milliards de mails qui sont envoyés à travers le monde, 2,45 milliards de contenus différents qui sont postés sur Facebook. Les humains ne sont pas les seuls responsables de ce déluge d'informations. "Cela fait quelque temps déjà que le nombre de données produites et stockées est important, note Patrice Poiraud, directeur business et analyse chez IBM.

Gestion énergétique des data centers : comment gagner en efficacité Alors que les ménages sont alertés sur les enjeux énergétiques et sensibilisés à la nécessité d’une meilleure gestion de leur consommation domestique, les entreprises affichent un retard considérable dans la mise en place de politiques efficaces d’optimisation de leur consommation d’énergie. Selon l’Université de Standford, la consommation électrique des data centers a augmenté de 56% entre 2005 et 2010, et représente aujourd’hui entre 1,1 et 1,5% de la consommation mondiale d’électricité [1] (soit l’équivalent de la production de 30 centrales nucléaires, ou 8,5 milliards de dollars). Aux Etats-Unis, les data centers consomment déjà autant d’énergie que l’industrie automobile [2]. Et cette tendance est loin de s’inverser: en 2020, les data centers rejetteront plus de CO² que l’ensemble du trafic aérien mondial [3] et d’ici à 2016, la masse d’informations numériques produite dans le monde va être multipliée par 4 [4]. La vôtre en fera-t-elle partie ?

Du Big Data au Valued Data - TRIBUNE Les articles, dossiers, tables rondes et conférences sur le big data se sont multipliés depuis quelques mois. De plus en plus de sociétés s’emparent du phénomène de mode pour revendiquer leur expertise du sujet et s’accaparer les centaines de millions, voire les milliards de dollars promis sur ce « nouveau » marché. Les modes se suivent et se ressemblent : le « tout CRM » à la fin des années 90, le « 1 to 1 » début 2000, le « web 2 »… A chaque fois, ces expressions sont synonymes d’avancées concrètes, d’outils innovants mais aussi de sur-promesses et de raccourcis. Il y a beaucoup de confusion et de fantasmes derrière l’expression « big data ». Mais le flou est entretenu et personne ne sait vraiment de quelles données on parle quand on parle de « big data ». les données provenant des outils de tracking : sites web fréquentés, pages visitées, mots-clés recherchés… ;les données provenant de l’analyse textuelle et/ou sémantique du contenu des réseaux sociaux : qui parle de quoi ?

La valorisation de la chaleur des datacenters Bureaux, piscines, serres tropicales…. Les réflexions des gestionnaires de datacenters sur les moyens de valoriser la chaleur "perdue" de leur centre de données se sont concrétisée par plusieurs projets en France. Focus. Garantir la sécurité et la disponibilité continue des données de leurs clients tout en réalisant plus d'opérations informatiques en consommant moins d'énergie, tel est l'enjeu auquel se confrontent les gestionnaires de datacenters depuis que leur impact en terme de consommation électrique a été pointé du doigt par plusieurs ONG. En France, ces usines du numérique sont désormais une centaine et consommeraient environ 9% de l'électricité, une consommation en hausse de 10% par an. Sachant que 40% des consommations ont pour origine les équipements électroniques, 40% la climatisation des salles et 20% les équipements liés à la distribution électrique, plusieurs pistes d'économie sont possibles.

De la statistique aux big data : ce qui change dans notre compréhension du monde Par Hubert Guillaud le 19/12/12 | 9 commentaires | 4,776 lectures | Impression Lors de la dernière édition des Entretiens du Nouveau Monde industriel qui avaient lieu les 17 et 18 décembre 2012 au Centre Pompidou, le sociologue Dominique Cardon a proposé une intéressante matrice pour comprendre à la fois les limites de la réutilisation des données ouvertes et celle des “Big Data“. Nous sommes désormais confrontés à un incroyable déluge de données produit par le numérique, reconnaît Dominique Cardon. C’est ce qu’on appelle le Big Data. Les données semblent innombrables, proliférantes… Et vont demain nous en apprendre toujours plus sur nous-mêmes… Mais sont-elles nécessaires ? Depuis quelques années, un ensemble de discours (relayé à la fois par des militants, des citoyens, des entreprises, des pouvoirs publics) se met en place autour “du nécessaire partage des données”. Le modèle statistique des données ouvertes consiste, lui, à porter sur la place publique de la donnée “brute”.

Comment réduire les dépenses énergétiques des datacenters ? Les data centers, ces centres où sont sont stockées et traitées les données informatiques, sont un exemple criant de l’augmentation de la demande mondiale d’énergie. Véritables gouffres énergétiques, les data centers consomment désormais plus de 1% de l’électricité mondiale. Il existe néanmoins plusieurs solutions pour limiter l’impact énergétique de ces centres de données, par exemple en exploitant davantage la chaleur qu’ils dégagent. Le poids des data centers dans la consommation électrique Les data centers, ces centres qui regroupent les serveurs où sont stockées les données informatiques, sont de véritables gouffres énergétiques. Selon Dalkia, un data center de 10.000 m2 consomme autant d’énergie qu’une ville de 50.000 habitants. D’après une étude de l’Université de Standford, les quelques 500.000 data centers existants dans le monde consommeraient environ 30 milliards de watts d’électricité par an, soit l’équivalent de la production de 30 centrales nucléaires.

Related: