background preloader

BigData

Facebook Twitter

Data science, comment l'entreprise 3.0 doit-elle se préparer à son intégration en interne ? Avec la "data" devenue un axe stratégique, les entreprises cherchent à intégrer d'une manière ou d'une autre la "Data Science" à leur "Business model" dans le but de leur donner un avantage concurrentiel.

Data science, comment l'entreprise 3.0 doit-elle se préparer à son intégration en interne ?

Pour autant, la mise en œuvre de la "Data Science" au cœur d'une entreprise impose un réel changement tant au niveau organisationnel que culturel mais également au niveau du système d'information. Explications de Jérôme Besson, Associé chez Sentelis. En plus d'une intégration progressive, un changement culturel important doit être mené pour accepter le fait que la Data Science nécessite des cycles d'expérimentation réguliers ce qui est en opposition avec la culture habituelle du résultat. En effet, la "Data Science" est une science expérimentale et non-exacte, ce qui nécessite d'accepter l'échec. 11/28 > BE Etats-Unis 349 > Supercomputing 2013 : quoi de neuf dans le monde du Calcul Haute Performance (HPC) et du Big Data ? Sciences et technologies de l'information et de la communicationSupercomputing 2013 : quoi de neuf dans le monde du Calcul Haute Performance (HPC) et du Big Data ?

11/28 > BE Etats-Unis 349 > Supercomputing 2013 : quoi de neuf dans le monde du Calcul Haute Performance (HPC) et du Big Data ?

Du 17 au 22 novembre 2013, les acteurs et passionnés du HPC et de ses applications se sont rassemblés à Denver, Colorado. Pour sa 25e édition, la conférence a accueilli plus de 10 600 participants et proposé un programme technique rassemblant plus de 250 évènements en 6 jours, de groupes de travail techniques aux conférences en passant par des tutoriaux ou tables rondes. La conférence a également réuni 350 exposants. Les grands industriels du HPC étaient présents bien-sûr: Intel, Bull, Cray, IBM, Hewlett-Packard ou encore NVidia. Plusieurs autres choses sont à noter. La conférence a donc eu lieu à un moment où l'économie du HPC retrouve une seconde jeunesse.

Des pétaFLOPS à volonté, pour un Exascale à porté de main ? Un Top 500 peu bousculé... ... mais un test de performance mis sur la sellette Des pétaFLOPS, mais pas que ! Big Data : premiers pas avec MapReduce, brique centrale d'Hadoop. Le modèle MapReduce est conçu pour lire, traiter et écrire des volumes massifs de données.

Big Data : premiers pas avec MapReduce, brique centrale d'Hadoop

Des bonnes feuilles issues de l'ouvrage Big Data chez Eni. MapReduce est un modèle de programmation conçu spécifiquement pour lire, traiter et écrire des volumes de données très importants. Un programme Hadoop met généralement en œuvre à la fois des tâches de type map et des tâches de type reduce. MapReduce implémente les fonctionnalités suivantes : Parallélisation automatique des programmes Hadoop. Gestion transparente du mode distribué. Tolérance aux pannes. Plus généralement, MapReduce simplifie grandement la vie du développeur Hadoop, en lui masquant une bonne partie du fonctionnement interne de Hadoop. Ainsi, lorsqu'il écrit le code du mapper (cf. section suivante), le développeur Hadoop travaille comme s'il ne devait traiter qu'un seul enregistrement. 3. Un programme Hadoop se divise généralement en trois parties : Big data, décodage et analyse des enjeux - Recherche.

2014/03/14 > BE Japon 683 > Le Japon veut certifier les utilisateurs de Big Data pour limiter les problèmes de protection de la vie privée. Technologies de l'Information et de la CommunicationLe Japon veut certifier les utilisateurs de Big Data pour limiter les problèmes de protection de la vie privée Le gouvernement japonais prévoit de certifier les compagnies utilisant les Big Data, comme les informations sur les consommations courantes, afin de limiter les problèmes de protection de la vie privée.

2014/03/14 > BE Japon 683 > Le Japon veut certifier les utilisateurs de Big Data pour limiter les problèmes de protection de la vie privée

Selon certaines estimations, le marché domestique des services accédant à des informations personnelles pourrait atteindre les 1700 milliards de Yen (12 milliards d'euros). 2014/03/14 > BE Japon 683 > Les Big Data changent la manière dont la Banque centrale japonaise analyse les données et effectue des prévisions. Technologies de l'Information et de la CommunicationLes Big Data changent la manière dont la Banque centrale japonaise analyse les données et effectue des prévisions Le Département de recherche et de statistiques de la Banque centrale japonaise (BOJ : Bank of Japan) utilise les Big Data pour analyser et effectuer des prévisions sur les changements économiques du pays.

2014/03/14 > BE Japon 683 > Les Big Data changent la manière dont la Banque centrale japonaise analyse les données et effectue des prévisions

Les résultats obtenus n'ont jamais été aussi précis. Depuis l'automne 2013, la Banque centrale japonaise a utilisé les technologies de traitement des Big Data pour analyser en profondeur jusqu'à 500 statistiques économiques, cherchant des perturbations dans l'économie pour aider la politique monétaire. Big data makes big changes in how Japan's central bank looks ahead. TOKYO -- Big data is helping the Bank of Japan's research and statistics department be more confident, as the department's economic forecasts have been proven right, and ever more accurate.

Big data makes big changes in how Japan's central bank looks ahead

Since last autumn, Japan's central bank has been using big data to analyze as many as 500 economic statistics in depth, looking for disturbances in the economy to aid monetary policy. The research and statistics department is playing an increasingly important role at the bank as BOJ policy board members demand ever more accurate data and analyses. According to preliminary data released in mid-February by the Cabinet Office, Japan's real gross domestic product for the October-December quarter rose at an annualized 1% on the year. The figure fell below market expectations of 2.7%, but the central bank had the view that it would be around 1%. In other words, the BOJ's prediction was right, and those from the private sector were not.

The European Central Bank also uses big data in its economic assessments. Contacter Antoine DAVID sur la question. 2013/06/14 > BE Etats-Unis 335 > Big Data : quelles applications pour la diplomatie et le développement ? Sciences et technologies de l'information et de la communicationBig Data : quelles applications pour la diplomatie et le développement ?

2013/06/14 > BE Etats-Unis 335 > Big Data : quelles applications pour la diplomatie et le développement ?

Le bureau de la eDiplomatie (Office of eDiplomacy) du Département d'Etat (Ministère des affaires étrangères américain) a organisé le 7 juin 2013 la conférence "Tech@State - MoneyBall diplomacy" [1] sur l'usage de grands ensembles de données (Big Data) dans le domaine de la diplomatie et du développement. Cette conférence est la 11ème édition d'une série de conférences "Tech@State" organisées chaque trimestre depuis 2010. Welcome to Apache™ Hadoop®! 2013/06/14 > BE Etats-Unis 335 > Big Data - Partie 1 : Une révolution en marche. Sciences et technologies de l'information et de la communicationBig Data - Partie 1 : Une révolution en marche A première vue, le "Big Data" est un de ces "buzz words" dont on entend beaucoup parler sans vraiment savoir de quoi il ressort.

2013/06/14 > BE Etats-Unis 335 > Big Data - Partie 1 : Une révolution en marche

Les promesses sont légions mais que doit-on espérer du Big Data ? Car le Big Data suscite également des craintes, notamment quant à la protection de la vie privée comme le montre les révélations récentes sur le projet PRISM. La NSA (National Security Agency) collecterait (et bien sûr analyserait) les données personnelles des utilisateurs de grandes compagnies américaines [1,2,8], acteurs majeurs du Big Data, comme Microsoft, Yahoo, Google, Facebook, YouTube, Skype, AOL, PalTalk ou encore Apple. BI & BIG DATA : L’ère de l’entreprise rationnelle > www.linformaticien.com : Actualités informatique, Réseau, Sécurité, Technologie, Développement. Crise ou pas crise ?

BI & BIG DATA : L’ère de l’entreprise rationnelle > www.linformaticien.com : Actualités informatique, Réseau, Sécurité, Technologie, Développement

Les entreprises ne savent plus sur quel pied danser et la visibilité de l’activité se réduit de plus en plus. Pourtant, leurs dirigeants doivent chaque jour prendre des décisions, changer de cap, s’adapter a un environnement mouvant. Chacun de ces mouvements est un risque et il n’est pas toujours évident de faire le bon choix.

Justement, les outils de Business Intelligence, d’aide à la décision, peu importe leur nom, sont là pour aider à trancher entre les différentes options possibles. Mieux, ces outils sont aujourd’hui prédictifs et ne se contentent plus de regarder dans le rétroviseur de l’historique des données. Ils sont de plus en plus puissants mais également plus simples à utiliser. Pour enrichir cette vision, de nouvelles technologies permettent de prendre en compte d’autres gisements de données autrefois oubliés, car en dehors des bases de données. Dossier réalisé par Bertrand Garé.