background preloader

¿Qué es OLAP?

¿Qué es OLAP?
Según la Wikipedia, OLAP es: OLAP es el acrónimo en inglés de procesamiento analítico en línea (On-Line Analytical Processing). Es una solución utilizada en el campo de la llamada inteligencia empresarial (o Business Intelligence) cuyo objetivo es agilizar la consulta de grandes cantidades de datos. Para ello utiliza estructuras multidimensionales (o cubos OLAP) que contienen datos resumidos de grandes bases de datos o Sistemas Transaccionales (OLTP). ¿Te has enterado de algo? ¿Todavía no? Porque OLAP no es más que eso: Una manera de acceder a tu información utilizando un “lenguaje natural”. En el mundo corporativo, los analistas acceden a la información filtrando sus indicadores de negocio por regiones, por producto, por tiempo... A partir de esta definición básica, existen distintas tecnologías que lo implementan (ROLAP, MOLAP,...), pero básicamente todas hacen las mismas acciones básicas sobre la información: No sé si la enumeración anterior es completa o clara. Related:  katherineaguilarvasquezclase 18/5/2015

Que es un KPI – Significado de los Key Performance Indicators (KPIs) Si te dedicas al SEO y a los Social Media lo primero que van a pedirte tus clientes son resultados. No basta con que creas que estás haciendo las cosas bien, sino que necesitarás demostrar con datos que tu estrategia está siendo exitosa. Pero, ¿cómo se mide el éxito en el marketing digital? Para eso usamos los KPIs. ¿Qué es un KPI? KPI son las siglas de Key Performance Indicators, ósea, indicadores clave del desempeño. Un ejemplo sencillo de KPI lo podemos encontrar en una inmobiliaria que este año se plantea vender 100 pisos (no tengo ni idea de inmobiliarias, así que no se si la cifra que he dicho es una locura). Características de los Key Performance Indicators La definición de KPIs es fundamental en el mundo del Marketing Online donde a veces se plantean objetivos tan etéreos como “aumentar la reputación online de la empresa” o “mejorar el engagement de los contenidos de una web”. Cada empresa debe identificar sus propios KPIs, a los que se les piden que sean: Medibles. Alcanzables.

Ejemplos data mining ¿Qué es un Data Warehouse? | Dataprix TI Tras las dificultades de los sistemas tradicionales en satisfacer las necesidades informacionales, surge el concepto de Data Warehouse, como solución a las necesidades informacionales globales de la empresa. Este término acuñado por Bill Inmon, se traduce literalmente como Almacén de Datos. No obstante si el Data Warehouse fuese exclusivamente un almacén de datos, los problemas seguirían siendo los mismos que en los Centros de Información. La ventaja principal de este tipo de sistemas se basa en su concepto fundamental, la estructura de la información. Integrado: los datos almacenados en el Data Warehouse deben integrarse en una estructura consistente, por lo que las inconsistencias existentes entre los diversos sistemas operacionales deben ser eliminadas. E.F. Dimensiones de negocio vistas como cubos Un director de producto, sin embargo, querría examinar la distribución geográfica de sus productos, para toda la información histórica almacenada en el Data Warehouse.

Datawarehouse Un Datawarehouse es una base de datos corporativa que se caracteriza por integrar y depurar información de una o más fuentes distintas, para luego procesarla permitiendo su análisis desde infinidad de pespectivas y con grandes velocidades de respuesta. La creación de un datawarehouse representa en la mayoría de las ocasiones el primer paso, desde el punto de vista técnico, para implantar una solución completa y fiable de Business Intelligence. La ventaja principal de este tipo de bases de datos radica en las estructuras en las que se almacena la información (modelos de tablas en estrella, en copo de nieve, cubos relacionales... etc). Este tipo de persistencia de la información es homogénea y fiable, y permite la consulta y el tratamiento jerarquizado de la misma (siempre en un entorno diferente a los sistemas operacionales). El término Datawarehouse fue acuñado por primera vez por Bill Inmon, y se traduce literalmente como almacén de datos. Principales aportaciones de un datawarehouse

Moneyball (2011) Big Data: Nuevas aplicaciones y modelos de negocio | The Great i Big Data: Nuevas aplicaciones y modelos de negocio To read this post in English, click HERE José Luis lleva 2 años dirigiendo un programa de innovación en Big Data, en Telefónica. Telefónica ha hecho una apuesta muy grande en la monetización de los datos que genera día tras día como resultado de las actividades de su negocio (como operadora de telefonía). José Luis nos ha dado la oportunidad de conocer de cerca los avances y tendencias del Big Data. ¿Qué aplicaciones basadas en Big Data se prevén a corto plazo? “A corto plazo, se está trabajando para proporcionar datos ‘hacia afuera’ [para terceras empresas] monetizando los datos, y con el lema de conseguir que otras empresas tomen mejores decisiones basadas en el conocimiento que el mercado les pueda proporcionar. Jose Luís enfatiza: “Nosotros ya tenemos la tecnología. Otra posible aplicación dentro del entorno de las ‘Smart Cities’es la adaptación de los precios de la electricidad, agua o gas en función de nuestra demanda real.

Definición de Datawarehouse El concepto informático de ‘datawarehouse’ hace alusión al proceso mediante el cual una organización o empresa particular almacena todos aquellos datos e información necesarios para el propio desempeño de la misma. Se presupone que este tipo de material se organiza de manera tal de facilitar el análisis y la realización de reportes en las situaciones en que sea necesario hacerlo. Contar con un fácil acceso a los datos de importancia tendrá directa relación con la efectividad de las diversas tareas de la empresa. El concepto de datawarehouse nace en la década de los 80 en la empresa IBM. El sistema datawarehouse o de almacén de datos se maneja a través de dos conceptos centrales: el de integración y combinación de diferentes tipos de datos que son utilizados en diferentes áreas y espacios de la organización por un lado, y el de separación y selección de esa misma información de acuerdo a las necesidades específicas de cada usuario o sección de la empresa. Temas en Datawarehouse

Maestría en Explotación de Datos y Descubrimiento del Conocimiento En los últimos años se han acumulado enormes cantidades de datos en todas las organizaciones, y esta tendencia continúa a un ritmo acelerado. Esto es posible por el amplio uso de los sistemas computarizados, nuevas técnicas de captura de datos, el empleo de códigos de barra, los lectores de caracteres ópticos, las tarjetas magnéticas, entre otros, y por el avance en la tecnología de almacenamiento y su consiguiente reducción de costos. La disponibilidad de esos datos es un importante activo para cualquier organización, en la medida en que puedan ser transformados en información de interés, utilizando técnicas y métodos de Data Mining. Data Mining, también referenciado como Descubrimiento del Conocimiento en Bases de Datos (Knowledge Discovery in Databases o KDD), ha sido definida como el proceso de extracción no trivial de información implícita, previamente desconocida y potencialmente útil.

El Big Data y la próxima revolución del modelo conceptual | Funiber Blogs – FUNIBER El modelado conceptual, o si se quiere el modelado semántico, es una zona nebulosa en la gestión de datos. Parece que tenemos un acuerdo que indica que es necesario un cierto desacuerdo sobre lo que es, y un poco de comprensión de cómo hacerlo. Sin embargo, creo que ahora estamos en un punto en el que nos veremos obligados a tratar con modelado conceptual de una manera mucho más seria que en el pasado.Problemas de definición Yo defino un modelo conceptual como “un modelo de información empresarial únicamente como información sin ningún tipo de concepto asociado a la forma en cómo se pueden almacenar esos datos.” Para mí, un modelo conceptual no es un modelo de datos en ningún sentido, porque no es parte de ningún esfuerzo para diseñar una solución de almacenamiento de datos. Existen otras definiciones de “modelo conceptual”. Yo creo que un modelo conceptual de datos tiene un lugar en la gestión de datos, como paso previo a un modelo de datos lógico.

¿Qué es Big Data? Todos formamos parte de ese gran crecimiento de datos Ricardo Barranco FragosoPublicado en 18-06-2012 1. Introducción El primer cuestionamiento que posiblemente llegue a su mente en este momento es ¿Qué es Big Data y porqué se ha vuelto tan importante? Gigabyte = 109 = 1,000,000,000 Terabyte = 1012 = 1,000,000,000,000 Petabyte = 1015 = 1,000,000,000,000,000 Exabyte = 1018 = 1,000,000,000,000,000,000 Es importante entender que las bases de datos convencionales son una parte importante y relevante para una solución analítica. 2. Los seres humanos estamos creando y almacenando información constantemente y cada vez más en cantidades astronómicas. Esta contribución a la acumulación masiva de datos la podemos encontrar en diversas industrias, las compañías mantienen grandes cantidades de datos transaccionales, reuniendo información acerca de sus clientes, proveedores, operaciones, etc., de la misma manera sucede con el sector público. 3. Figura 1. Haga clic para ampliar la imagen 4. Figura 2. 5.

Datamining (Minería de datos) El datamining (minería de datos), es el conjunto de técnicas y tecnologías que permiten explorar grandes bases de datos, de manera automática o semiautomática, con el objetivo de encontrar patrones repetitivos, tendencias o reglas que expliquen el comportamiento de los datos en un determinado contexto. Básicamente, el datamining surge para intentar ayudar a comprender el contenido de un repositorio de datos. Con este fin, hace uso de prácticas estadísticas y, en algunos casos, de algoritmos de búsqueda próximos a la Inteligencia Artificial y a las redes neuronales. De forma general, los datos son la materia prima bruta. En el momento que el usuario les atribuye algún significado especial pasan a convertirse en información. Aunque en datamining cada caso concreto puede ser radicalmente distinto al anterior, el proceso común a todos ellos se suele componer de cuatro etapas principales: Determinación de los objetivos. Preprocesamiento de los datos. Determinación del modelo. Datamart

Modelos de data mining y las herramientas más usadas La minería de datos es capaz de informar sobre eventos importantes hasta el momento desconocidos, permitiendo realizar pronósticos fiables, que hacen posible tomar acción en condiciones de riesgo mínimas. La técnica que se utiliza para llevar a cabo estas hazañas se denomina modelado. Los modelos de data mining se originan, ya sea como un conjunto de ejemplos o como una relación matemática, en base a los datos de situaciones sobre las que se conoce la respuesta, primer paso para luego aplicar el modelo a otros eventos donde existen cuestiones por resolver. Las técnicas de modelado no son de nueva aparición, sino que han estado disponibles durante décadas, aunque sólo recientemente se ha logrado alcanzar la capacidad de almacenamiento de datos y de comunicación necesarios para recoger y guardar grandes volúmenes informacionales. La creación de modelos de data mining aplicada a los negocios permite: Créditos fotográficos: istock vaenma Post relacionados:

Bussines Intelligence es un tema conceptual y un conjunto... Curso/capacitación Chile 2014 - www.stratebi.com Profesionales de las tecnologías de información, gestores de TI, CEOs, consultores en Business Intelligence, profesionales de Marketing, Control de Gestión, analistas de sistemas, arquitectos Java, arquitectos y desarrolladores de sistemas, administradores de bases de datos, desarrolladores y profesionales con relación a el área de tecnología. Tras el éxito de los recientes Cursos realizados en Brasil, Colombia y México en donde completamos todo el aforo, se convoca en Santiago de Chile, el Curso más completo de Business Intelligence Open Source. Conocimientos en bases de datos ya que se distribuirán entre los alumnos diferentes scripts de carga de datos de ejemplo. El objetivo es enseñar al alumno a construir una solución de Business Intelligence (BI) para hacer el análisis de datos procedentes de diversas fuentes y sistemas, utilizando herramientas de software libre como Pentaho. Además, se realizará una Introducción al Social Intelligence y a Big Data Fecha: 3,4, 5 y 6 de Marzo 2014 a.

Related: