background preloader

Louis Naugès

Louis Naugès
Dans la première partie de cette analyse, j’ai présenté les trois familles d’intelligence artificielle (IA) et l’état actuel de l’A N I, Artificial Narrow Intelligence, l’IA spécialisée sur une seule activité. Face à nous, les A N I ont gagné la bataille des usages spécialisés. Il reste encore quelques activités humaines pour lesquelles des solutions A N I sont encore en retrait, en particulier dans le domaine des arts et de la pensée, oui ; pour combien de temps ? Je prendrai un seul exemple, dans le domaine de la musique. Flow Machines est un projet de recherche européen qui a pour objectif de créer des musiques originales à l’aide d’outils d’IA. A G I : Artificial General Intelligence Rappel : une A G I est une intelligence artificielle capable de réaliser de très nombreuses activités différentes, comme un être humain. En 2017, il n’existe aucune A G I opérationnelle, et il faudra encore beaucoup d’années pour atteindre ce niveau d’IA. Combien d’années, «That’s the question!». Related:  Business Intelligence

Auto Lab, toutes les innovations de l'aumobile Il n’a que 44 ans mais a déjà à son palmarès de nombreux prix honorant son talent de designer ou en tout cas d’imagination. Designer de l’année par le London Design Museum en 2003, récompensé par la Royal Society of Arts ou encore reconnu, lui et son équipe, comme l’un des meilleurs du monde en 1996. La liste est longue. Lui, c’est Jonathan Ive. C’est en partie grâce à lui que Steve Jobs a pu réaliser tous ses projets fous qui ont fait le succès d’Apple. Alors que sort le 14 octobre une nouvelle version de l’iPhone 4, le 4S, revenons en quelques mots et images sur les concepts et innovations imaginés par ce designer. Depuis 1992 et son arrivée chez Apple, le designer a été à l’origine de la conception de l’iMac Original, qui s’est vendu à plus de deux millions d’unités dès la première année de commercialisation en 1998. L’année suivante il imagine l’iBook et le PowerMac G4. En 2001, il dévoile le PowerBook G4 Titanium, le plus léger ordinateur portable 17 pouces .

ETL, les questions à se poser ETL, acronyme de Extraction, Transformation, Loading, est un système de chargement de données depuis les différentes sources d'information de l'entreprise (hétérogènes) jusqu'à l'entrepôt de données (modèles multidimensionnels). Ce système ne se contente pas de charger les données, il doit les faire passer par un tas de moulinettes pour les dé-normaliser, les nettoyer, les contextualiser, puis de les charger de la façon adéquate. Nous verrons par la suite ce que chaque mot veut dire. Il est important de savoir que la réalisation de l'ETL constitue 70% d'un projet décisionnel en moyenne. Et ce n'est pas pour rien, ce système est complexe et ne doit rien laisser s'échapper, sous peine d'avoir une mauvaise information dans l'entrepôt, donc des données fausses, donc inutilisables. Avant de commencer, visualisez le schéma d'un entrepôt et sa façon de fonctionner (gérer l'historique, dimensions, faits, etc.). Si vous cherchez des méthodes de conceptions d'ETL, et bien il n'y en a pas. III-A.

Les (r)évolutions de la high-tech, le blog High Tech de L'Usine « Messieurs les banquiers, redonnez-nous nos ingénieurs ». C’est ainsi que Didier Lamouche (photo), directeur général de STMicroelectronics a conclu la conférence organisée par le Wine & Business Club et sa société sur le thème « L’industrie en Europe a-t-elle encore un avenir ? ». Une table ronde en guise de mise en bouche avant de passer à des dégustations plus terre à terre, avec des interventions – un peu – plus libres que dans des cadres plus officiels et cadrés. Auparavant, le DG de STM avait établi sa liste pour réussir la recette qui permettra à l’industrie française et européenne de (re)partir d’un bon pied. - Dépasser les frontières. - Investir agressivement dans l’innovation, c’est-à-dire plus de 10 % du chiffre d’affaires. - Conserver un modèle de production intégrée, avec la R&D, la fabrication mais aussi la partie commerciale sur un même lieu. - Bénéficier d’un « environnement favorable ». Le dernier point, en particulier, ne surprend pas.

Les principes de l’ETL Pour alimenter le datawarehouse des différentes applications de l’entreprise, on utilise une gamme d’outils appelés ETL, pour « Extract, Transform, Load ». Comme le nom l’indique, ces outils permettent d’extraire des données à partir de différentes sources, de les transformer (format, dénomination), et de les charger dans la base de données cible, ici le datawarehouse. Les transformations confiées à un ETL sont souvent simples, mais elles peuvent dans certains cas inclure des traitements procéduraux, de véritables programmes spécifiques. Un ETL permet d’éviter la réalisation de programmes batch répétitifs, souvent semblables, dont il faudra également assurer la maintenance. L’ETL peut prendre en charge différentes natures de sources de données, tant en entrée qu’en sortie, les principales étant bien sûr les SGBD relationnels, et les flux XML, mais il peut s’agir aussi de fichiers à formats fixes ou avec séparateurs (CSV). L’ETL a vocation à travailler en différé, le plus souvent la nuit.

Technology blog | Technology Protesters in favour of Proposition 8 outside the US supreme court, which threw it out. Photograph: Jonathan Ernst/Reuters Charles Arthur: Plus Symantec talking to bankers?, Apple's App Store analysed, the Prop 8 naysayers, coathangers v music, and more Continue reading... ce que Hadoop ? Data warehouse, stockage et traitement distribués Définition Hadoop Hadoop est un projet Open Source géré par Apache Software Fundation basé sur le principe Map Reduce et de Google File System, deux produits Google Corp. Le produit est écrit en langage Java. Hadoop peut être considéré comme un système de traitement de données évolutif pour le stockage et le traitement par lot de très grande quantité de données. Il est tout à fait adapté aux stockages de grande taille et aux analyses de type "ad hoc" sur de très grandes quantité de données. Hadoop et les analyses massives Le web n'est pas le seul à générer de grandes masses d'informations. Les analyses massives autorisent alors des optimisations bien plus fines. Benchmark Pour avoir une meilleure idée de la performance du système et de la révolution à venir : En Mai 2009 chez Yahoo Corp, utilisateur de Hadoop, 1 téra-octet (1012 ) de données a été trié en 62 secondes (cf blog développeur yahoo, voir plus bas)... Ressources Lecture recommandée

Grandeur et Décadence de la Technologie Française... : Journal d La couverture médiatique hallucinante qui a accompagné la sortie de l'iPad d'Apple pourrait nous faire oublier à quel point toute cette effervescence autour de la mobilité et de la communication est récente ! Qui se souvient encore du téléphone « bi-bop », sorte de cabine téléphonique portable, lancé par France Télécom en 1993 ? C'était le premier téléphone mobile, sorti bien avant l'explosion du réseau GSM en 1996... J'ai fait partie des premiers clients, et ce n'était pas triste ! Pour appeler un correspondant ou recevoir des appels, il fallait rester sagement immobile, la communication ne fonctionnant pas en déplacement. L'utilisateur motivé devait passer son temps le nez en l'air à rechercher les bornes d'appels identifiées par un petit autocollant vert et bleu apposé sur les gouttières des immeubles - ou les réverbères - et dont les couleurs et la disposition reprenaient à l'identique celles du drapeau de la Patagonie ;-) Le manque de talents ? Un exemple frappant ?

MapReduce Un article de Wikipédia, l'encyclopédie libre. Les termes « map » et « reduce », et les concepts sous-jacents, sont empruntés aux langages de programmation fonctionnelle utilisés pour leur construction (map et réduction de la programmation fonctionnelle et des langages de programmation tableau). MapReduce permet de manipuler de grandes quantités de données en les distribuant dans un cluster de machines pour être traitées. Ce modèle connaît un vif succès auprès de sociétés possédant d'importants centres de traitement de données telles Amazon ou Facebook. Il commence aussi à être utilisé au sein du Cloud computing. Présentation[modifier | modifier le code] Un modèle de programmation[modifier | modifier le code] MapReduce est un modèle de programmation popularisé par Google. MapReduce consiste en deux fonctions map() et reduce(). Dans l'étape Map le nœud analyse un problème, le découpe en sous-problèmes, et les délègue à d'autres nœuds (qui peuvent en faire de même récursivement). Hadoop Logo

Le temps Criteo = Hadoop + CouchBase + Elastic Serach Pour offrir le meilleur aux annonceurs, Criteo manipule des volumes de données considérables avec des temps de réponse de quelques dixièmes de seconde. Plongeon au cœur de son architecture. C'est l'une des start-up internet françaises qui connaît actuellement le plus de succès dans le monde. Pionnier de ce que l'on appelle le retargeting publicitaire, Criteo manipule des volumes de données considérables dans des temps de réponse de quelques dixièmes de seconde afin d'offrir le meilleur service aux annonceurs. Tout le monde connait aujourd'hui ces bannières publicitaires ultra-ciblées qui vous suivent d'un site à l'autre, vous rappelant les articles que vous avez vus sur un site marchand et vous proposant de retourner sur ce site pour conclure votre achat. Un véritable pari technologique lorsqu'on sait que toutes ces opérations doivent être réalisées en quelques dixièmes de seconde et que Criteo réalise le processus 3 milliards de fois chaque jour.

MetaFilter | Community Weblog Qu’est-ce que le Data Lake, le nouveau concept "Big Data" en vogue Le Data Lake doit permettre, enfin, de casser les silos des systèmes d’information. C’est aussi un moyen de gagner en agilité. L'expert Vincent Heuschling répond aux questions du JDN. Qu’est-ce qu’un Data Lake ? Le Data Lake, ou lac de données, est un concept relativement nouveau lié à la mouvance Big Data. L’émergence du concept de Data Lake s’est accélérée grâce avec la convergence du besoin de plateformes fédératrices dans les entreprises et de nouveaux moyens techniques économiques apportés par les technologies de Big Data. En quoi est-ce différent d'un datawarehouse ? La tentation est très souvent forte d’apparenter le Data Lake à un classique datawarehouse, mais les différences entre les deux sont importantes, et ceci sur plusieurs plans. Avec le Data Lake, l'analyse de données devient opérationnelle Un autre facteur différenciant le Data Lake vis-à-vis de son ancêtre réside dans le coté opérationnel qui peut lui être associé. Quels sont les atouts d'un Data Lake ?

Related: