background preloader

Pourquoi la Big data devient un très gros business - 21 avril 2014

Pourquoi la Big data devient un très gros business - 21 avril 2014
Vous êtes agacé par ces pubs et ces promos qui vous poursuivent sur le web dès que vous avez consulté un site marchand ? Les commerçants en ligne qui vous souhaitent votre anniversaire par e-mail ou SMS vous irritent ? Vous n'avez encore rien vu ! Car voici que nous arrive des Etats-Unis la révolution du "big data". Grâce au traitement de "données massives" rendu possible par des logiciels et des ordinateurs surpuissants, vous serez bientôt repéré, observé, ciblé, "profilé" dans tous les compartiments de votre existence. Une masse insoupçonnée d'informations qui vous concernent pourront être extraites, recoupées et analysées par votre banquier, votre assureur, vos fournisseurs de gaz et d'électricité, vos magasins et marques habituels... mais aussi par votre municipalité, votre caisse de Sécurité sociale ou votre direction des impôts. Pour le meilleur ou pour le pire, vous deviendrez un "nuage" de données, sans cesse passé à la moulinette des algorithmes d'extraction (data mining).

http://tempsreel.nouvelobs.com/economie/20140417.OBS4360/pourquoi-la-big-data-devient-un-tres-gros-business.html

Related:  Mémoire Big DataIABig Data Overview (french)DataInfrastructures et opérateurs

Big Data : le nouveau challenge, l’analyse des images La généralisation des accès internet haut-débit et l’usage massif des Smartphones et des réseaux sociaux ont démocratisé la création, la production et la diffusion des images : elles envahissent aujourd’hui la toile ! Dans cet océan d’images, comment les entreprises peuvent-elles surveiller leurs visuels produits, leurs campagnes publicitaires, leurs logos et toutes les autres images faisant référence – positivement ou négativement – à leurs marques ? Comment trouver les images postées sur des sites douteux ou identifier des visuels de marques détournés qui nuiraient à leur réputation ? Frédéric Jahard, CEO de LTU technologies

4 causes d’échecs d’un projet big data Mathieu Dubois, Nomios Mieux connaître ses clients ou ses prospects, avoir un « coup d’avance » sur ses concurrents ou encore proposer un nouveau service, les possibilités offertes par le Big Data sont quasi infinies mais les contraintes associées également. C’est d’autant plus vrai que la définition de « Big Data » est floue et que chacun peut y associer ce qu’il entend. Entre buzzword et véritable révolution, le concept est en vogue depuis quelques années maintenant et nombreux sont ceux qui se sont lancés ou qui sont prêts à le faire. Malgré tout, derrière les sourires de façade, la réalité du terrain est tout autre et les échecs ne sont pas rares.

Créer un podcast augmenté : Tutoriel Créer un podcast augmenté avec Scenari 4.0 est un nouveau tutoriel proposé par le CLEMI pour apprendre à réaliser un podcast augmenté (pièce sonore contenant sons, images fixes, animées et textes) à partir du logiciel libre Webmedia 2 de la chaîne SCENARI développée par l’IUT de Compiègne. Il s’agit d’enrichir de l’audio avec d’autres médias (textes, images, …) pour permettre une écoute partielle en donnant accès à la consultation de ressources complémentaires. Application utilisée : Webmedia2 qui est un outil de saisie de contenu libre et gratuit pour la webradio.

Marché mondial des services télécoms : état des lieux et projections Didier Pouillot, Head of the Telecom Strategy Business Unit La croissance des mobiles reste toujours aussi forte avec 6,6 milliards d’abonnés dans le monde en 2013 et des prévisions à plus de 8 milliards fin 2018 L’IDATE, partenaire analyste du LTE World Summit 2014 qui se tient du 23 au 25 juin 2014 à Amsterdam, rend publics les résultats de son étude publiée dans le cadre de son suivi « Telecom Players & Markets ». A lire avant de vous immerger dans le Big Data En informatique, une donnée est une description élémentaire et mémorisable d’une réalité (d’une action, d’un évènement, d’une chose, etc.). Tout système ou application informatique récolte, stocke et traite des données, et les mêmes contraintes président à la constitution et à l’exploitation de bases de données (toujours réductibles à un certain nombre de tables) depuis l’invention de l’informatique. Le Big Data : un « problème » dont le marketing sortira gagnant ? Les données doivent notamment être récoltées en minimisant les biais et erreurs, et de manière la plus granulaire qui soit afin de permettre une exploitation efficace. La mémoire des systèmes n’étant pas illimitée par le passé (on considère que ce n’est plus le cas aujourd’hui, grâce à la baisse des coûts de stockage), un arbitrage est nécessaire afin de stocker les données les plus pertinentes. Le Big Data : quand les données posent problèmes

La France à l'aube de la "robolution" Le ministre du Redressement productif, Arnaud Montebourg, a inauguré, mardi 4 mars, le premier fonds d'investissement exclusivement dédié à la robotique, baptisé Robolution Capital. "Ce fonds sera exclusivement dédié au financement de la robotique de service en France", explique au "Nouvel Obs" Bruno Bonnell, à l'initiative de Robolution Capital. Le fonds consacrera ainsi 80 millions d'euros aux entreprises imaginant les robots qui faciliteront le quotidien de demain (robots aspirateurs, voitures autonomes, drones civils, robots compagnons de chirurgiens...).

Big Data : comparatif des technos, actualités, conseils... Pour faire face à l'explosion du volume des données, un nouveau domaine technologique a vu le jour : le Big Data. Inventées par les géants du web, ces solutions sont dessinées pour offrir un accès en temps réel à des bases de données géantes. Comment définir le Big Data, et quelle est sa promesse ? Face à l'explosion du volume d'informations, le Big Data vise à proposer une alternative aux solutions traditionnelles de bases de données et d'analyse (serveur SQL, plateforme de Business Intelligence...). Confrontés très tôt à des problématiques de très gros volumes, les géants du web, au premier rang desquels Yahoo (mais aussi Google et Facebook), ont été les premiers à déployer ce type de technologies.

10 logiciels de création de site web gratuit Un logiciel de création de site web CMS est idéal pour créer son site internet et surtout effectuer soi-même ses propres mises à jour régulières de façon intuitive. Mais, attention ! Pas n'importe quel outil de conception de site web gratuit. Il va s'agir de choisir un logiciel de création web qui corresponde à l'architecture et à la complexité de votre projet de conception de site. Vous devez donc tenir compte de vos propres besoins et surtout de votre capacité à utiliser l'éditeur de site web de votre choix. Datacenters : pas besoin de surinvestir pour réduire leurs coûts Les entreprises qui tentent de réduire les coûts de fonctionnement de leur datacenter sont trop focalisées sur la quête d'efficience dans le refroidissement et d'autres systèmes d'infrastructure, alors qu'elles feraient mieux de faire la chasse aux serveurs sous-utilisés. Bien que la majorité des entreprises aient augmenté leurs dépenses dans les centres de traitements l'an passé, l'efficience moyenne du refroidissement et de la distribution de l'énergie dans les installations du monde entier a légèrement diminué, d'après l'étude 2014 sur l'industrie des datacenters réalisée par l'Uptime Institute. Alors que 62 % des entreprises ont augmenté les budgets dédiés aux datacenters, l'indicateur moyen du rendement énergétique (PUE) des centres s'est dégradé, passant à 1.7. L'indicateur PUE est une mesure qui reflète quelle proportion de l'énergie utilisée par un centre alimente les serveurs plutôt que l'infrastructure associée du centre de traitements. Difficultés à faire baisser le PUE

Le Big Data : un enjeu économique et scientifique Réseaux sociaux, clouds, appareils nomades, grands instruments scientifiques… Depuis quelques années, les nouvelles technologies produisent des masses de données numériques qu’il faut trier, analyser, stocker… L’homme est entré dans l’ère du Big Data. De nos jours, l’humanité produit chaque année un volume d’informations numériques de l’ordre du zettaoctet. Soit presque autant d’octets qu’il existe d’étoiles dans l’Univers1 ! En 2010 déjà, Eric Schmidt, le patron de Google, estimait que « tous les deux jours, nous produisons autant d’informations que nous en avons générées depuis l’aube de la civilisation jusqu’en 2003 ». Définition du Big Data Définition du Big Data Chaque jour, nous générons 2,5 trillions d’octets de données. A tel point que 90% des données dans le monde ont été créées au cours des deux dernières années seulement.

Netflix : 1 Tbit de capacité en France et accord avec la Sacem ! (MàJ) Netflix accélère ses préparatifs quelques semaines avant son arrivée en France, prévue pour mi-septembre. En termes de réseau, il a ainsi signé des accords avec le spécialiste du peering France IX chez l’hébergeur Telehouse. Parallèlement, un accord avec la Sacem a également été trouvé. Si Netflix n’avait pas encore réellement lancé les hostilités, c’est désormais le cas. L’Américain a signé coup sur coup plusieurs accords pour, d’une part soigner son réseau, de deux se prémunir en signant avec la Sacem.

2013: CAP SUR LE BIG DATA - ENQUÊTE Les données, trop longtemps délaissées, reviennent sur le devant de la scène marketing. Elles représentent un réel gisement générateur de business pour les agences comme pour les annonceurs. Objectif : la connaissance client, afin d?améliorer la relation entre les marques et leurs consommateurs. Big data: lor noir du XXIe siècle Le marché du «big data», nouveau graal de l'informatique Tous les acteurs du secteur investissent ce créneau, qui affiche un taux de croissance insolent de 40 %. 2014 sera l'année des systèmes d'analyse des données informatiques, dits de «big data». Dans les allées du salon Big Data Paris, qui se tient mardi et mercredi, tous les participants en sont intimement convaincus. Ce n'est pas un hasard si ce secteur figure parmi les 34 plans de reconquête pour la «Nouvelle France industrielle» lancés en septembre dernier par Arnaud Montebourg. IDC estime que le poids des technologies et services liés à l'analyse et l'exploitation des données en grandes quantités en temps réel atteindra 16,9 milliards au niveau mondial en 2015, alors que ce marché ne dépassait pas 3,2 milliards de dollars en 2010.

Related:  Techno interface sensorielle // espace de travail