background preloader

Le Cloud Computing, expliqué en 3 schémas

Le Cloud Computing, expliqué en 3 schémas
Il ne se passe pas une semaine sans que j’anime un séminaire ou participe à une conférence dont le thème principal est le « Cloud Computing ». Que ce soit pendant une heure ou quatre jours, j’ai à chaque fois le même challenge, expliquer simplement cette profonde révolution. Je viens d’imaginer trois schémas qui ont comme ambition de faciliter cette compréhension du Cloud Computing, que ce soit par des professionnels de l’informatique ou des décideurs d’entreprise. Je vous en propose une première version et serait très attentif aux commentaires qui seront faits ; j’espère qu’ils m’aideront à les améliorer et les rendre de plus en plus pertinents, donc utiles à tous. Trois composants Ces schémas s’appliquent aux usages professionnels du Cloud Computing. Je les ai construits en m’appuyant sur les idées simples suivantes : Pour utiliser le Cloud Computing, une personne a besoin d’un « objet d’accès », qui sera le plus souvent un ordinateur portable, une tablette ou un smartphone. Résumé :

Windows Azure : le meilleur cloud Apprentissages 2.0 Exploiter les promesses du BPM en mode Cloud Le PaaS peut permettre une transformation des métiers avec le Cloud. Différents types de PaaS, dont celui dédié aux processus. La gestion des processus métiers (BPM) promet depuis longtemps d’offrir les moyens de transformer le fonctionnement des entreprises. Les entreprises s’appuient sur la mise en œuvre de processus. La rapidité de démarrage est un apport considérable du Cloud au BPM. Le BPM converge avec le PaaS (Platform-as-a-Service), combinant les avantages du développement applicatif et du support des processus dans un modèle Cloud intégré. Lorsque l’on parle BPM et Cloud, il faut répondre à trois questions : - L’un des métiers dispose-t-il de données et de services en mode Cloud nécessaires à l’exécution de processus ? - Veut-il exécuter ces processus dans le Cloud ? - Le Cloud est-il réellement adapté aux besoins de l’organisation, qu’ils soient actuels, imminents ou futurs ? Clay Richardson, de Forrester, a évoqué "le désordre du surnombre." - L’orchestration de services Cloud.

Le Cloud Computing : qu'est-ce que c'est ? Le cloud computing est devenue la tendance 2010 par excellence. Pas vraiment de nouveauté technique, si ce n’est qu’elle perturbe le modèle économique existant et replace le Très Haut Débit comme prérequis principal. Le cloud computing est un concept simple qui suppose le transfert des traitements informatiques effectués sur le poste d'un utilisateur vers des serveurs distants. Le principe et les technologies de ce concept existent déjà mais sa nouveauté réside dans son modèle économique. Les applications et les données sont externalisées : elles ne se trouvent plus sur l'ordinateur local, mais dans un nuage (appelé plus généralement « cloud ») composé d'un certain nombre de serveurs distants interconnectés au travers d'un réseau. Les modèles de cloud computing sont définis par rapport à la répartition des ressources qui est effectuée entre le fournisseur de service Cloud et l'entreprise. 1. 2. 3. L'informatique dans le nuage est plus économique grâce à son évolutivité. M.

Big Data et Cloud poussent les entreprises EMEA au changement A lire sur: Par L'Atelier - Paris08 février 2013 Tous pays confondus, les technologies de l'information sont au centre des préoccupations des décideurs informatiques, qui voient émerger de nouveaux métiers. A en croire une enquête* réalisée par EMC, un spécialiste d'outils de stockage et d'archivage de données, les inquiétudes concernant Big Data et Cloud planent aussi bien sur les pays d'Europe, que d'Afrique ou du Moyen-Orient. Ainsi, si 75% des entreprises des pays dits développés affirment être préoccupées par la sécurité et la gouvernance de leurs données, un chiffre équivalent (79%) est constaté chez leurs voisins émergents. Qu’est que le Web 2.0 ? Contribuer au Web 2.0 ! Introduction au web 2.0 Le Web 2.0 appelé aussi “web participatif” est le web que nous connaissons tous actuellement, et pourtant, essayez de vous expliquer à vous même ce qu’est ce “web participatif”, si vous y arrivez, essayer de faire comprendre votre définition du web 2.0 à un enfant de 8 ans, si il vous comprend alors vous avez réussi, sinon le terme web 2.0 reste probablement un terme vague, un concept … Enfin rien de vraiment concret pour que ce petit môme à qui vous souhaitez expliquer le concept vous comprenne facilement ! Essayons d’en savoir un peu plus. Définition du terme Web 2.0 Tim O’Reilly” dont les ouvrages de cet Irlandais sont considérés comme des références par la communauté de l’Internet donne la première définition du Web 2.0, il définit le web 2.0 non plus comme “un support d’information isolé” mais comme “une plateforme d’échange entre internautes, applications et services”. Les exemples les plus importants sont : Comment est que je participe au web 2.0 ?

EMC to Hadoop competition: “See ya, wouldn’t wanna be ya.” If, like many industry watchers, you’ve been confused about EMC Greenplum’s Hadoop strategy over the past couple years, Scott Yara has a message for you: “We’re all in on Hadoop, period.” Yara, Greenplum’s co-founder and senior vice president of products, has a not-so-coded message for his big data market competitors, too. Put simply, he doesn’t think they stand a chance against his company, and he served notice on Monday morning with the unveiling of the company’s new Pivotal HD Hadoop distribution and Project Hawq in a staged event at San Francisco’s Dogpatch Studios. Pivotal HD is a completely re-architected Hadoop distribution that has been natively fused with Greenplum’s analytic database (that’s the Project Hawq part), but Yara thinks it’s a bigger deal than just another SQL-on-Hadoop play. Building a data platform costs money, and lots of it But before the details, a little history. Big investment, big aspirations The data warehouse is the new mainframe

Chercher de l'information plus facilement Très bientôt, le contenu accessible sur Internet doublera toutes les 72 heures. Trouver une information pertinente deviendra une tâche encore plus ardue! En réponse à cette préoccupation, une pratique est en vogue depuis plusieurs mois sur le Web: la curation. Qu’est-ce que la curation? Le terme anglais curator se traduit par conservateur dans le domaine de l’art. Source: prezi.com L’organisateur de contenu recherche l’information sur les réseaux sociaux ou dans les médias traditionnels, la sélectionne, la classe pour ensuite la partager à l’interne (site de l’entreprise, bulletin électronique) ou à l’externe (médias sociaux, blogue). Tout le monde fait de l’organisation de contenu sans le savoir, que ce soit en publiant un lien sur Facebook ou Twitter et en y intégrant un commentaire ou encore en émettant un avis sur TripAdvisor. Enfin, la raison de cette «agitation» autour de cette pratique réside dans la nouveauté des outils et des modes de visualisation. Source: Scoop.it Sources:

Cloud Computing : des compétences rares et un gisement d'emploi qu'il reste à étayer Pas moins de 190 000 emplois en jeu d'ici à 2015: c'est ce que pèse, rien que pour la France, le développement du cloud computing, selon le cabinet IDC. Qui, d'une année sur l'autre, tire le signal d'alarme en précisant qu'il y a un besoin urgent de former les professionnels IT en place et les futurs informaticiens aux réalités du cloud. Si cet appel à compétences se confirme (+ 24 % par an en Europe jusqu'en 2015), l'estimation d'IDC ne dit rien du solde net d'emplois. Ni du détail des compétences à forger. Certes à l'échelle mondiale, les effectifs IT devraient encore croître (+4,3 % par an), mais le besoin de renfort sera plus aigü en région Asie-Pacifique (progression de 32 % des postes liés au cloud). Alors, sur les 190 000 postes envisagés pour la France, combien pourraient être pourvus par des programmes de reconversion ? « Pour l'instant, il n'y a pas de programmes de GPEC en vue », constate Régis Laurent, directeur des opérations de la société de formation Global Knowledge.

Big Data fait parler vos données - Informatique - Bureautique Un véritable déluge de données ! Depuis dix ans et l'avènement de l'ère numérique, rien ne semble pouvoir ralentir la croissance exponentielle des datas. Chaque année, nous créons en effet autant de données que la somme des données déjà créées au fil du temps ! Selon une étude EMC-IDC, 1,8 zettaoctet de données (1 800 milliards de mégaoctets) ont été produites en 2011. Et ce chiffre devrait bondir à 35 zettaoctets en 2020 ! Pour exploiter ces masses d'informations, une nouvelle science est née : le big data. "Pour donner une définition simple, on peut dire que le big data commence là où les systèmes traditionnels de gestion de bases de données deviennent inopérants", ose François Guérin, le directeur avant-vente de Sybase. Un nouvel état d'esprit "Le big data, c'est d'abord un changement de méthode et d'état d'esprit", affirme Paul Guyot, le président et cofondateur de Semiocast. Le concept a aussi ses puristes. Il faut ensuite traiter les données le plus rapidement possible.

Related: