background preloader

Big Data for Asset Managers

Facebook Twitter

Big Data et banque privée, quels usages ? Article paru dans le magazine ICT Journal du mois de Mars 2014.

Big Data et banque privée, quels usages ?

Les technologies Big Data sont de plus en plus utilisées au sein des banques de détail pour le profilage des clients ou les activités marketing. Au sein des banques privées, cependant, les applications sont moins évidentes et les initiatives peu nombreuses. Les opportunités existent pourtant bel et bien, et elles sont surprenantes. Les technologies Big Data, initiées par les Géants du Web comme Google ou Amazon, permettent d’analyser efficacement des données très volumineuses (de l’ordre du Terabyte voire du Petabyte). La brique logicielle la plus plébiscitée actuellement est Hadoop, un produit open-source qui s’installe sur un cluster de machines communes et peu onéreuses, et bénéficie d’un TCO (Total Cost of Ownership) modeste.

Pourtant, et contrairement aux idées préconçues, des cas d’usages existent et présentent des opportunités surprenantes autour de trois axes: Développer la proximité. L’analyse décisionnelle en temps réel Convergence entre Big Data et Complex Event Processing. OCTO organise le jeudi 12 janvier 2012 à partir de 8h45 un petit-déjeuner gratuit Big Data & CEP : « L’analyse décisionnelle en temps réel : Convergence entre Big Data et Complex Event Processing », à Eurosites George V.

L’analyse décisionnelle en temps réel Convergence entre Big Data et Complex Event Processing

Pour vous inscrire cliquez ici . Découvrez le descriptif de l’évènement et les intervenants dans ce billet. Le pilotage des activités opérationnelles devrait pouvoir se faire au rythme du business et avec une connaissance précise de son état courant. La lutte contre la fraude, l’analyse des parcours clients en temps réel ou le suivi des liquidités permettent d’améliorer vos profits et demandent une analyse complexe instantanée sur d’importants volumes d’évènements. Ces nouveaux usages en matière d’analyse des flux de données introduisent de nouveaux défis techniques et d’architecture des SI : comment faire converger analyse temps réel et gestion de volume de données important ? A l’issue de ce séminaire, vous aurez découvert : Ce petit-déjeuner sera présenté par :

CR du petit-déjeuner organisé par OCTO et Quartet FS « L’analyse décisionnelle en temps réel Convergence entre Big Data et Complex Event Processing » Agenda : Introduction aux enjeux d’analyse de données en temps réelPrésentation des architectures d’analyse de donnéesPrésentation de la solution Open Source ESPERPrésentation de la solution ActivePivot Sentinel (Quartet FS)Questions/Réponses Définition : « Un système d’analyse de données temps réel est un système évènementiel disponible, scalable et stable capable de prendre des décisions (actions) avec une latence inférieure à 100ms » 100ms est l’ordre de grandeur retenu lorsque l’on parle de « temps réel ».

CR du petit-déjeuner organisé par OCTO et Quartet FS « L’analyse décisionnelle en temps réel Convergence entre Big Data et Complex Event Processing »

Cette valeur permet de prendre les décisions dans un temps adapté au business. Quelles différences avec l’analyse traditionnelle ? Quels intérêts pour les entreprises ? Les entreprises sont déjà aujourd’hui confrontées aux problématiques de volumétrie. Petit-déjeuner : Calculez vos indicateurs en temps réel – Retour d’expérience sur une expérimentation avec Storm le jeudi 7 novembre. Complex Event Processing (CEP), de quoi s’agit-il? Depuis quelques années, on assiste à l’émergence de nouvelles solutions logicielles, dont le concept à la base est loin d’être nouveau, mais dont l’offre est de plus en plus riche et perfectionnée, à savoir, Complex Event Processing.

Complex Event Processing (CEP), de quoi s’agit-il?

Alors de quoi s’agit-il ? Complex Event Processing (CEP)? Selon la définition fournie par EPTS (Event Process Technical Society) dans son glossaire publié fin 2008, Complexe Event Processing, (en français, traitement des événements complexes), est tout calcul/traitement exécutant des opérations sur des événements complexes tels que la lecture, la création, la transformation, l’abstraction des données portées par ces événements. En d’autres termes, Complex Event Processing traduit plus des concepts d’analyse d’événements porteurs d’informations prévenant de diverses sources de données que de solutions logicielles. Inspiration et concepts « Complex Event processing » a été développé vers le début des années 90. Deux dérivés conceptuels se distinguent: Complex Event Processing. Today’s information society abounds in a myriad of information flows, computer-based human collaborations, software agent interactions, electronic business transactions, and the explosion of data on the Internet.

Complex Event Processing

Understanding what is happening in these environments is becoming increasingly difficult. In other words, we need to find the best ways to make sense of this wealth of data, to improve the quality and availability of information, and to ensure effective responses. Traditional storage and data analysis technologies are not adapted to this exponential growth of volume and event rates.

In addition, the value of information may decay rapidly over time. For instance, some events that may help anticipate a production outage have no value once the outage happened. Complex Event Processing (CEP) is a set of technologies that allows exploring temporal, causal, and semantic relationships among events to make sense of them in a timely fashion.

Some business use cases. Unlock Big Data's Potential in Financial Services with Hortonworks.