background preloader

Big Data : est-ce que le déluge de données va rendre la méthode scientifique obsolète

Big Data : est-ce que le déluge de données va rendre la méthode scientifique obsolète
Nous voici entré dans l’ère des Big Data des ensembles de données tellement gigantesques qu’ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse… Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d’information doit apprendre à comprendre ce qu’elle analyse. L’enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c’est le dossier de la semaine d’InternetActu qui commence par un retour sur un article fondateur de 2008 qui posait les bases de la révolution à venir. « Il y a soixante ans, les ordinateurs ont rendu l’information lisible. Il y a vingt ans, l’internet l’a rendu accessible. Image : La fin de la théorie scientifique ? Hubert Guillaud

http://internetactu.blog.lemonde.fr/2011/09/30/big-data-est-ce-que-le-deluge-de-donnees-va-rendre-la-methode-scientifique-obsolete/

Related:  Démarche scientifique en psychologie

Les enjeux de la psychanalyse à l’aube du XXIe siècle André Green On dit la psychanalyse en crise. On parle de crise de civilisation, on parle de crise des valeurs morales, on parle de crise de l’art, on parle même de crise de la démocratie. Pourquoi la psychanalyse y échapperait-elle ? OpenWorld 2011 : Avec Exalytics, Oracle analyse des To de données en mémoire Il fallait s'attendre à ce qu'Oracle concocte une réponse aux appliances analytiques in memory de SAP. C'est chose faite avec la machine Exalytics qui intègre, de façon parallélisée, la base de données en mémoire TimesTen, la suite BI d'Oracle et la base multidimensionnelle Essbase. Le tout logé dans une armoire équipée de quatre Xeon 10 coeurs pouvant accueillir en mémoire de 5 à 10 To de données compressées transmis depuis une machine Exadata. Des réponses quasi instantanées aux requêtes et une interface de visualisation interactive pour accélérer l'analyse. Après les machines Exadata et Exalogic Elastic Cloud, combinant matériel et logiciels pour optimiser la gestion des bases de données (pour l'une) et des applications sous Java (pour l'autre), on se doutait qu'Oracle n'en resterait pas là. Exalytics fonctionne avec ExadataLa machine Exalytics associe elle aussi de façon étroite le matériel et le logiciel, de façon à optimiser les échanges de données et leur traitement.

Vers un monde de données ? Nous sommes entrés dans un monde de données, dans un monde où les données sont en passe de devenir l’essence même de la connaissance et de l’information. La donnée (data) est la plus petite part d’information accessible, à la manière des zéros et des uns qui constituent les bits d’information à l’heure du numérique. Elle est déterminée par des valeurs, par des champs qui s’appliquent à elle et la qualifie. Avec l’informatisation de notre quotidien, tout devient données. Les données sont le moteur du web sémantique de Tim Berners-Lee (ce web de données ou web 3.0) comme du web² de John Battelle et Tim O’Reilly.

l'observation par Marc Alain Descamps L’observation en psychologie sociale est une des méthodes les plus simples et les plus efficaces. Elle peut encore faire trouver beaucoup de découvertes, et n’est pas du tout démodée. Big Data : avec le rachat de Gluster, Red Hat s'attaque au stockage des données non structurées Red Hat se renforce dans la gestion du Big Data et dans les données non structurées en annonçant le rachat de Gluster pour 136 millions de dollars en numéraire. Gluster, une société localisée en Californie, développe une solution logicielle de stockage Open Source adaptée à la problématique des données non-structurées, comme les emails, les vidéos, les documents, nous rappelle Red Hat. La société développe notamment un système de stockage scalable baptisé GlusterFS qui permet d'associer un pool de système de stockage à des ressources informatiques scalables, de haute performance et centralisées. Il s'agit en clair de donner la possibilité aux entreprises de s'attaquer au problème du stockage dans un environnement Big Data, avec leur solution de stockage existante, et ce à moindre coût, évidemment - Open Source oblige. Red Hat compte ainsi adapter l'offre de Gluster tant on permise qu'au sein de son offre de Cloud Public.

Big data Un article de Wikipédia, l'encyclopédie libre. Une visualisation des données créée par IBM[1] montre que les big data que Wikipedia modifie à l'aide du robot Pearle ont plus de signification lorsqu'elles sont mises en valeur par des couleurs et des localisations[2]. Croissance et Numérisation de la Capacité de Stockage Mondiale de L'information[3]. Dans ces nouveaux ordres de grandeur, la capture, le stockage, la recherche, le partage, l'analyse et la visualisation des données doivent être redéfinis. Certains supposent qu'ils pourraient aider les entreprises à réduire les risques et faciliter la prise de décision, ou créer la différence grâce à l'analyse prédictive et une « expérience client » plus personnalisée et contextualisée.

Karl Popper ou la récusation de l’induction comme démarche scientifique Pourquoi vouloir des preuves scientifiques de l’efficacité d’un traitement Accueil > Sommaire > Preuves L’inscription de l’activité de soin dans le paradigme scientifique vise à limiter l’influence de des déterminants arbitraires dans le choix des traitements : c’est la confrontation à la réalité qui corrobore ou infirme les hypothèses thérapeutiques. L’obtention de preuve est ainsi essentielle pour éviter la situation inéquitable où un bénéfice (commercial ou autre) serait obtenu par le promoteur du traitement sans qu’il soit assuré que le patient ou la société en tire un quelconque bénéfice.

Hadoop Un article de Wikipédia, l'encyclopédie libre. Hadoop a été créé par Doug Cutting et fait partie des projets de la fondation logicielle Apache depuis 2009. Historique[modifier | modifier le code] En 2004, Google publie un article présentant son algorithme basé sur des opérations analytiques à grande échelle sur un grand cluster de serveurs, le MapReduce, ainsi que son système de fichier en cluster, le GoogleFS. Les innovations des technologies Big Data par Brian Gentile ¿ Chronique Solutions Selon une étude Gartner , le volume de données généré sur la seule année 2009 était plus important que le cumul des 5000 années précédentes. Les technologies doivent suivre. L'expression Big Data, apparue pour la première fois en 2008, se réfère aux technologies qui permettent aux entreprises d'analyser rapidement un volume de données très important et d'obtenir une vue synoptique. Car aujourd'hui, le nombre de données à traiter est sans égal et augmente de manière exponentielle.

Big Data : on n’attire pas les mouches avec du vinaigre Qu’est-ce que le « big data » ? 0inShare A mon avis, pas grand chose de nouveau, un concept marketing comme savent en inventer les hommes de l’art américains, prompts à changer de braquet dès qu’un concept s’érode quelque peu afin de se relancer sur le suivant. D’ailleurs, sait-on réellement de quoi l’on parle ? La définition donnée par les internautes alimentant Wikipédia est pour le moins sibylline : « Big data are datasets that grow so large that they become awkward to work with using on-hand database management tools », ce que l’on peut traduire par « Les big data sont des ensembles de données qui ont tellement grandi qu’il devient maladroit de les manipuler avec les outils existants de manipulation de données »… qu’y a-t-il de réellement nouveau dans cela ?

Quantum dévoile des systèmes big data et améliore la dédup de ses DXi Bien connu pour ses solutions de sauvegarde et de stockage sur disques et sur bandes, Quantum a revu cet été plusieurs de ses offres, notamment dans le domaine du big data et de la déduplication. A l'occasion du salon IBC 2011 à Amsterdam, le 13 septembre dernier, Quantum a présenté les produits de la gamme StorNext dédiée au partage et à l'archivage de fichiers volumineux. Comme nous l'a précisé Gabriel Chaher, vice-président EMEA chez Quantum, « pour faire du big data, il ne suffit pas de le dire comme chez certains concurrents. Il est nécessaire de concilier trois éléments : gros volume, gros fichiers et rapidité d'accès ». Reposant sur le système de fichiers maison hérité du rachat d'Adic, SNFS (StorNext File System), la gamme StorNext se compose de plusieurs éléments : les contrôleurs de métadonnées (M330), les passerelles scale-out NAS (G300 Scale-Out Gateway) et les systèmes de stockage (QM1200, QS1200 et QD6000).

Related: