background preloader

Data Mining, logiciel d’analyse statistique, Analyse prédictive,

Data Mining, logiciel d’analyse statistique, Analyse prédictive,
Related:  Data Mining

La référence SAS Supports de cours -- Data Mining Cette page recense les supports utilisés pour mes enseignements de Machine Learning, Data Mining et de Data Science au sein du Département Informatique et Statistique (DIS) de l'Université Lyon 2, principalement en Master 2 Statistique et Informatique pour la Science des donnéEs (SISE), formation en data science, dans le cadre du traitement statistique des données et de la valorisation des big data. Je suis très attentif à la synergie forte entre l'informatique et les statistiques dans ce diplôme, ce sont là les piliers essentiels du métier de data scientist. Attention, pour la majorité, il s'agit de « slides » imprimés en PDF, donc très peu formalisés, ils mettent avant tout l'accent sur le fil directeur du domaine étudié et recensent les points importants. Cette page est bien entendu ouverte à tous les statisticiens, data miner et data scientist, étudiants ou pas, de l'Université Lyon 2 ou d'ailleurs. Nous vous remercions par avance. Ricco Rakotomalala – Université Lyon 2

Talentd Tutoriels Tanagra pour le Data Mining Data centers: la donnée écolo Il y en a des milliers dans le monde. Plus d’une centaine en France. Les data centers sont la face cachée d’Internet ; on y a recours tous les jours. En 2011, Google possédait à lui seul 900 000 serveurs. Il y a un an, l’ONG a tiré la sonnette d’alarme, rappelant que les data centers étaient responsables de 2% des émissions de CO2. Eau de mer. Mais comment y parvenir ? OVH a par exemple inventé son propre système de water cooling, ou «refroidissement à eau». Et quid de la chaleur émise en continu par les data centers ? Energies vertes, réduction de la consommation, recyclage de la chaleur… Ces initiatives suffiront-elles à limiter l’impact environnemental des data centers ? L’évolution des composants électroniques devrait aider. «Ondulateurs».

Business Intelligence ETL pour le Décisionnel Les processus ETL (Extraction, Transformation et Chargement) sont les composants les plus critiques - et les plus importants – pour l’alimentation d’un data warehouse ou d’un système décisionnel. Bien que cachés de l’utilisateur de la plate-forme décisionnelle, les processus ETL rassemblent les données à partir des systèmes opérationnels et les pré-traitent pour les outils d’analyse et de reporting. La précision et la vitesse de la plateforme décisionnelle toute entière dépendent des processus ETL, notamment : Obstacles : Gestion de données hétérogènes L’implémentation de processus d’ETL efficaces et fiables comprend de nombreux défis. Les volumes de données sont en croissance exponentielle, et les processus ETL doivent traiter des quantités importantes de données granulaires (produits vendus, appels téléphoniques, transactions bancaires, etc.). Solution : Talend ETL for Analytics Les solutions d’intégration de données Talend sont optimisées pour les besoins ETL de l’entreprise.

Big data, l’enjeu du pouvoir Le Big Data, Le Cloud … Internet évolue maintenant si vite que ses nouveaux développements deviennent des enjeux majeurs avant même que le grand public ait eu le temps de les comprendre. Nous nous retrouvons donc à employer, lire, entendre mentionner des terminologies désignant des concepts ou des technologies dont nous savons qu’elles sont cruciales, sans pour autant avoir la moindre idée de leur nature. Un nom qui fait peur, pour un concept bien simple Au même titre que la mystérieuse appellation “Cloud” désigne tout simplement le stockage de données sur des serveurs distants mais bien réels, le concept de “Big Data” recouvre une réalité somme toute assez simple. Depuis une décennie, le volume et la variété des données informatiques que nous produisons ainsi que la rapidité avec laquelle nous les stockons et traitons ont littéralement explosés. Le Big Data - traduit officiellement par “mégadonnées” en français - désigne cette abondance de données et son exploitation.

Comment le Big Data va révolutionner 2013 "2012 a été l'année de l'évangélisation, 2013 sera l'année de la mise en place." Chez Atos, géant international du service informatique, pas de doute : cette année verra la multiplication des systèmes d'analyse dits de "Big Data". Plus qu'un concept, cette "grosse quantité de données" (littéralement) renvoie à de nouveaux systèmes informatiques qui promettent de "révolutionner la vie quotidienne". Le Big Data a émergé face à un constat. "Internet a changé le monde des années 1990, le Big Data va changer celui des années 2010", anticipe Chuck Hollis, directeur technique du leader mondial du stockage EMC et gourou du Big Data. Prédire les crises cardiaques Mais dans la pratique, comment s'illustre ce Big Data ? Les applications du Big Data sont nombreuses. "L'analyse des sentiments est très recherchée puisqu'avec des outils de sémantique, nous sommes capables de dégager les différents sentiments manifestés en temps réel sur les réseaux sociaux, même le second degré !" Big Data et politique

Vertigineux "big data" Chaque seconde, la masse de données créées sur Internet par les smartphones, ordinateurs et tablettes explose. Appelé "big data" par les experts du Web, cet amas colossal est un marché prodigieux. LE MONDE | • Mis à jour le | Par Sarah Belouezzane et Cécile Ducourtieux Photos, vidéos, sons, chiffres, textes... Depuis la démocratisation de l'Internet haut débit, ce sont des milliards de données qui sont déversées par les particuliers, les entreprises et même l'Etat sur la Toile. Les spécialistes appellent ça le "big data", littéralement "grosse donnée"... Tous les jours, ce sont 118 milliards de mails qui sont envoyés à travers le monde, 2,45 milliards de contenus différents qui sont postés sur Facebook. Les humains ne sont pas les seuls responsables de ce déluge d'informations. "Cela fait quelque temps déjà que le nombre de données produites et stockées est important, note Patrice Poiraud, directeur business et analyse chez IBM.

Du Big Data au Valued Data - TRIBUNE Les articles, dossiers, tables rondes et conférences sur le big data se sont multipliés depuis quelques mois. De plus en plus de sociétés s’emparent du phénomène de mode pour revendiquer leur expertise du sujet et s’accaparer les centaines de millions, voire les milliards de dollars promis sur ce « nouveau » marché. Les modes se suivent et se ressemblent : le « tout CRM » à la fin des années 90, le « 1 to 1 » début 2000, le « web 2 »… A chaque fois, ces expressions sont synonymes d’avancées concrètes, d’outils innovants mais aussi de sur-promesses et de raccourcis. Il y a beaucoup de confusion et de fantasmes derrière l’expression « big data ». Mais le flou est entretenu et personne ne sait vraiment de quelles données on parle quand on parle de « big data ». les données provenant des outils de tracking : sites web fréquentés, pages visitées, mots-clés recherchés… ;les données provenant de l’analyse textuelle et/ou sémantique du contenu des réseaux sociaux : qui parle de quoi ?

Related: