background preloader

Big Data : est-ce que le déluge de données va rendre la méthode scientifique obsolète

Big Data : est-ce que le déluge de données va rendre la méthode scientifique obsolète
Nous voici entré dans l’ère des Big Data des ensembles de données tellement gigantesques qu’ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse… Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d’information doit apprendre à comprendre ce qu’elle analyse. L’enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c’est le dossier de la semaine d’InternetActu qui commence par un retour sur un article fondateur de 2008 qui posait les bases de la révolution à venir. « Il y a soixante ans, les ordinateurs ont rendu l’information lisible. Image : La fin de la théorie scientifique ? Les réactions compilées par les contributeurs experts de la cyberculture de The Edge sont également intéressantes. Hubert Guillaud Related:  Démarche scientifique en psychologie

Les enjeux de la psychanalyse à l’aube du XXIe siècle André Green On dit la psychanalyse en crise. On parle de crise de civilisation, on parle de crise des valeurs morales, on parle de crise de l’art, on parle même de crise de la démocratie. Pourquoi la psychanalyse y échapperait-elle ? J’ai remarqué, lors de mes visites à New-York, l’étonnement renouvelé que suscitait en moi la contemplation de la statue de Bourdelle, au pied du Rockefeller Center, qui représente Prométhée. J’ai coutume de rappeler que, depuis que j’ai embrassé non pas même la profession de psychanalyste mais celle de psychiatre, on a maintes fois annoncé la mort de la psychanalyse et on a assorti cette mort d’autant de bonnes nouvelles annonçant ce qui devait la supplanter. Au fond, le but de la démarche neuroscientifique et cognitiviste, ce serait de rendre la lecture de Shakespeare inutile. Revenons à la critique de la psychanalyse. Tout ceci n’implique pas que les psychanalystes sortent saufs et intacts de cette crise.

OpenWorld 2011 : Avec Exalytics, Oracle analyse des To de données en mémoire Il fallait s'attendre à ce qu'Oracle concocte une réponse aux appliances analytiques in memory de SAP. C'est chose faite avec la machine Exalytics qui intègre, de façon parallélisée, la base de données en mémoire TimesTen, la suite BI d'Oracle et la base multidimensionnelle Essbase. Le tout logé dans une armoire équipée de quatre Xeon 10 coeurs pouvant accueillir en mémoire de 5 à 10 To de données compressées transmis depuis une machine Exadata. Des réponses quasi instantanées aux requêtes et une interface de visualisation interactive pour accélérer l'analyse. Après les machines Exadata et Exalogic Elastic Cloud, combinant matériel et logiciels pour optimiser la gestion des bases de données (pour l'une) et des applications sous Java (pour l'autre), on se doutait qu'Oracle n'en resterait pas là. Exalytics fonctionne avec ExadataLa machine Exalytics associe elle aussi de façon étroite le matériel et le logiciel, de façon à optimiser les échanges de données et leur traitement.

Vers un monde de données ? Nous sommes entrés dans un monde de données, dans un monde où les données sont en passe de devenir l’essence même de la connaissance et de l’information. La donnée (data) est la plus petite part d’information accessible, à la manière des zéros et des uns qui constituent les bits d’information à l’heure du numérique. Elle est déterminée par des valeurs, par des champs qui s’appliquent à elle et la qualifie. Avec l’informatisation de notre quotidien, tout devient données. Les données sont le moteur du web sémantique de Tim Berners-Lee (ce web de données ou web 3.0) comme du web² de John Battelle et Tim O’Reilly. Ces données deviennent intelligentes par leur recoupement et leurs capacités à adapter notre environnement au contexte que les machines perçoivent de nous via leurs capteurs. Ces données sont multiples, hétéroclites, hétérogènes, mais elles se relient les unes aux autres. Car le monde qu’elles contribuent à façonner n’est pas encore aussi lisse et lisible qu’elles le promettent.

THE END OF THEORY By Chris Anderson "All models are wrong, but some are useful." So proclaimed statistician George Box 30 years ago, and he was right. But what choice did we have? Only models, from cosmological equations to theories of human behavior, seemed to be able to consistently, if imperfectly, explain the world around us. Sixty years ago, digital computers made information readable. The Petabyte Age is different because more is different. At the petabyte scale, information is not a matter of simple three- and four-dimensional taxonomy and order but of dimensionally agnostic statistics. Google's founding philosophy is that we don't know why this page is better than that one: If the statistics of incoming links say it is, that's good enough. Speaking at the O'Reilly Emerging Technology Conference this past March, Peter Norvig, Google's research director, offered an update to George Box's maxim: "All models are wrong, and increasingly you can succeed without them." The big target here isn't advertising, though.

Quand l’homme sert de machine à la machine Par Rémi Sussan le 17/11/10 | 4 commentaires | 2,798 lectures | Impression Tout le monde est d’accord pour dire que “l’infobésité” sera probablement l’un des gros problèmes du siècle qui commence. Et ce qui est déjà difficile pour tout un chacun devient une question vitale pour certaines catégories professionnelles, comme les militaires, les agents de renseignements et autres pratiquants d’activités à risque. On sait que l’intelligence artificielle est pour l’instant bien loin de pouvoir les aider. C’est en partant de ce postulat que Paul Sajda, directeur du Laboratoire d’imagerie intelligente et de neuroinformatique de l’université de Columbia, a développé un système permettant de repérer rapidement dans une masse de photographies celles qui correspondent à certains critères prédéfinis. La technique est assez simple. Image : photogramme du film disponible sur IEEE.tv. On s’en doute, ce système de “cognition augmentée” intéresse bigrement les militaires. Via Next Big Future.

l'observation par Marc Alain Descamps L’observation en psychologie sociale est une des méthodes les plus simples et les plus efficaces. Elle peut encore faire trouver beaucoup de découvertes, et n’est pas du tout démodée. Elle est un très bon correctif des questionnaires, souvent peu fiables. Elle permet, en effet, de saisir ce que les sujets font réellement et non ce qu’ils prétendent faire. L’observation est, du point de vue de la relation, soit invisible soit participante, et, du point de vue de sa forme, elle va de la simple remarque naïve à une organisation tellement structurée et systématique qu’elle ne se différencie pas de l’expérimentation. Mais en psychologie sociale l’observation ne doit être que systématique ; une observation non-systématique relève de l’ethnographie, ou à la rigueur de la première pré-observation. Elle exige que les observateurs ne soient pas vus et que le sujets ne se sachant pas observés, se comportent naturellement. A) DIRECTE. B) DIRECTE BREVE. C) INDIRECTE. A) DECLAREE.

OpenWorld 2011 : Oracle bâtit une solution pour traiter les Big Data Une appliance de plus s'ajoute au catalogue Oracle. Cette fois, il s'agit de prendre à bras le corps le phénomène Big Data. Pour le faire, Oracle ne rechigne pas à recourir lui aussi au framework Open Source Hadoop MapReduce dans un assemblage de logiciels qui comprend aussi le langage d'analyse statistique R, avec, qui l'aurait cru, une base NoSQL maison. Les Big Data, avalanche de données générée par les réseaux sociaux, les capteurs mobiles, compteurs électriques et autres dispositifs ne peuvent généralement pas être traitées en l'état par les solutions de BI. Trop d'informations déversées sans discernement, mais qui peuvent receler des « pépites », expliquait Andy Mendelsohn, senior vice-président, responsable des technologies serveur d'Oracle, en introduction de son keynote au deuxième jour d'OpenWorld. La partie matérielle fonctionne sous Oracle Linux et héberge une machine virtuelle Java Hotspot.

Big data Un article de Wikipédia, l'encyclopédie libre. Une visualisation des données créée par IBM[1] montre que les big data que Wikipedia modifie à l'aide du robot Pearle ont plus de signification lorsqu'elles sont mises en valeur par des couleurs et des localisations[2]. Croissance et Numérisation de la Capacité de Stockage Mondiale de L'information[3]. Dans ces nouveaux ordres de grandeur, la capture, le stockage, la recherche, le partage, l'analyse et la visualisation des données doivent être redéfinis. Certains supposent qu'ils pourraient aider les entreprises à réduire les risques et faciliter la prise de décision, ou créer la différence grâce à l'analyse prédictive et une « expérience client » plus personnalisée et contextualisée. Dimensions des big data[modifier | modifier le code] Le Big Data s'accompagne du développement d'applications à visée analytique, qui traitent les données pour en tirer du sens[15]. Volume[modifier | modifier le code] Variété[modifier | modifier le code]

Big Data, grande illusion La cause serait entendue : après le cloud computing et l'internet des objets, les "big data" constitueraient la prochaine "révolution" apportée par le numérique. Alan Mitchell, cofondateur et directeur de la stratégie du cabinet britannique Ctrl-Shift, n'est pas d'accord. Pour lui, les Big Data auraient presque un côté contre-révolutionnaire : le chant du cygne d'une informatique productiviste, centralisatrice, centrée sur les grandes organisations. "Les Big Data se fondent entièrement sur la statistique : dégager des schémas et des tendances à partir de grandes collections de données. Image : Couverture du rapport de Ctrl-Shift sur le nouveau paysage des données personnelles. Mitchell ne conteste pas l'utilité des Big Data, il en conteste la nouveauté et le degré de priorité dans les agendas de recherche et d'investissement. Et pourquoi pas ? Prenons l'exemple de quelqu'un qui cherche à changer de voiture. Alan Mitchell n'a pas entièrement raison.

Informatique ubiquitaire Un article de Wikipédia, l'encyclopédie libre. L'évolution des ordinateurs : la course à la minaturisation et à la diffusion dans le milieu ambiant[1]. L´informatique ubiquitaire est la troisième ère de l'histoire de l'informatique, qui succède à l'ère des ordinateurs personnels et celle des mainframe. La commission Européenne utilise les mots intelligence ambiante pour décrire le milieu créé par les appareils. Caractéristiques[modifier | modifier le code] L'informatique ubiquitaire est la troisième ère de l'histoire de l'informatique[4], qui succède à l'ère des ordinateurs personnels et celle des mainframe. C'est une ère de convergence ou une gamme d'appareils disparates communiquent discrètement à travers un tissu de réseaux hétérogènes. Il existe une grande variété d'expressions utilisées pour décrire cette ère dont beaucoup sont associées à un but précis. Histoire[modifier | modifier le code] Technologie[modifier | modifier le code] Exemples[modifier | modifier le code]

Karl Popper ou la récusation de l’induction comme démarche scientifique Pourquoi vouloir des preuves scientifiques de l’efficacité d’un traitement Accueil > Sommaire > Preuves L’inscription de l’activité de soin dans le paradigme scientifique vise à limiter l’influence de des déterminants arbitraires dans le choix des traitements : c’est la confrontation à la réalité qui corrobore ou infirme les hypothèses thérapeutiques. L’obtention de preuve est ainsi essentielle pour éviter la situation inéquitable où un bénéfice (commercial ou autre) serait obtenu par le promoteur du traitement sans qu’il soit assuré que le patient ou la société en tire un quelconque bénéfice. Dans ce cadre, l’utilisation en pratique courante d’un traitement nécessite de disposer des preuves rigoureuses et impartiales qu’il permet effectivement d’atteindre l’objectif thérapeutique pour lequel son utilisation est envisagée (c'est-à-dire le bénéfice clinique que l’on souhaite apporté au patient : guérison, éviter le décès prématuré, etc.). Il récuse l’induction comme démarche scientifique.

Related: