background preloader

Cdeccache

Facebook Twitter

References for Graph Theory. The Protégé Ontology Editor and Knowledge Acquisition System. Big Data (R news & tutorials) Webinar Tomorrow: Big Data Trees and Hadoop Connection in Revolution R Enterprise 6.1 Tomorrow at 9AM Pacific, Revolution Analytics VP of Product Development Sue Ranney will introduce two key Big Data features of the new Revolution R Enterprise 6.1.

Now you can train classification and regression trees on data sets of unlimited size, quickly and using the resources of multiple processors and clusters. (This white paper describes our implementation of tree models... Read more » Benchmarking bigglm By Joseph Rickert In a recent blog post, David Smith reported on a talk that Steve Yun and I gave at STRATA in NYC about building and benchmarking Poisson GLM models on various platforms. Read more » What’s new in Revolution R Enterprise 6.1 We're pleased to announce that the latest update to Revolution R Enterprise is available today!

Read more » Webinar Thursday: How R is used to optimize tractor production at John Deere Read more » Slides and replay for "The Rise of Data Science" Read more » Big Data. Ou melhor, Big Challenge | Tecnologia. Publicada em 14/11/2012 16:04 Neste ano um dos assuntos mais falados foi Big Data. Uma pesquisa no Google Trends mostra um crescimento exponencial no interesse sobre o tema. Participei também de diversas palestras e reuniões com executivos para debater o assunto, e concluí que ainda estamos discutindo muito e fazendo relativamente pouco.

Claro que existem diversos casos de sucesso, mas a maioria das empresas ainda não tem uma visão clara do que é Big Data, do seu potencial e de como alavancar esta potencialidade. O próprio conceito de Big Data ainda está um pouco nebuloso. Veja, por exemplo, o que diz o Global Language Monitor em relação ao assunto: Big Data e Cloud estão entre os conceitos de tecnologia mais confusos da década – todo mundo usa, mas sequer sabe o que significa. O que vejo são muitas empresas entrando em iniciativas de Big Data sem uma estratégia bem definida, que as oriente. A questão do valor é importante. A capacitação profissional é um fator importantíssimo. Big Data e o caos conceitual | Tecnologia. Publicada em 17/05/2012 17:41 O termo Big Data está cada vez mais popular, embora ainda esteja mal compreendido. Observo em muitas palestras que não existe consenso quanto ao que realmente é Big Data e quais as tecnologias fundamentais que o sustentam. E mais ainda, existem muitas dúvidas de como tornar tangível o conceito, ou seja, como sair do conceitual e criar soluções de negócio que agreguem valor para as companhias.

Eliminar essas dúvidas é essencial, além de ser o primeiro passo para as empresas se aventurarem em projetos de Big Data. Para colocarmos o termo em contexto, Big Data vem chamando a atenção pela acelerada escala em que volumes cada vez maiores de dados são criados pela sociedade. As tecnologias que sustentam Big Data podem ser analisadas sob duas óticas: as envolvidas com analytics, tendo Hadoop e MapReduce como nomes principais, e as tecnologias de infraestrutura, que armazenam e processam os petabytes de dados.

Começando pelo início. Volume está claro. Big data: como encontrar uma agulha no palheiro? - TI corporativa. Novas tecnologias permitem às empresas realizar análises cada vez mais sofisticados de dados em conjuntos muito grandes e muito diversificado de dados. Pouco mais de um terço dos profissionais de TI participantes de um estudo realizado pelo The Data Warehousing Institute (TDWI) sam hoje alguma forma de análise avançada de big data – principalmente para inteligência de negócios, análise preditiva, prospecção de dados e tarefas de análise estatística. O estudo ouviu 325 gerentes de TI, usuários e consultores de negócios em pequenas, médias e grandes empresas. Cerca de 45% dos entrevistados esperam que a análise de dados permita que os insights de negócios sejam mais precisos, enquanto 38% estão procurando usar a tecnologia para um melhor reconhecimento das vendas e das oportunidades de mercado.

Mais de 60% esperam que a análise de big data pode aumente a capacidade de marketing da empresa nas redes de mídia social. Gestão de dados é principal desafio hoje para CIOs, diz estudo. O armazenamento e a gestão dos dados corporativos são considerados procedimentos complexos pelos diretores de TI com as soluções utilizadas hoje pelas organizações. Nada menos que 74% dos CIOs apontaram os métodos utilizados por elas difíceis, segundo um estudo encomendado à Forrester Consulting pela Dell. O levantamento foi feito com 839 gestores da área e responsáveis pela administração dos ambientes. Tecnologias mais fáceis de usar somada à automação dos ecossistemas de storage são benefícios desejáveis por 94% dos entrevistados. Essa complexidade dos tradicionais ambientes de armazenamento, segundo o estudo, tem impactado na produtividade e nos resultados entregues pelos profissionais responsáveis pela administração de storage nas organizações.

Entre os entrevistados, 57% disseram que hoje gastam entre 26% e 75% do dia de trabalho em tarefas relacionadas a manutenção, em vez de se concentrarem em atividades estratégicas para a empresa. Tags: Gestão. Big Data: Evolução ou Revolução? O Google, o Yahoo, a Amazon e algumas outras empresas têm desenvolvido ou estão utilizando soluções de Big Data e NoSQL, devido ao imenso volume de dados e processamento demandado. Mas tais implementações teriam alguma utilidade em cenários mais comuns? Em um artigo recente, Steve Jones indica que o Big Data não é a solução para todas as limitações de um modelo RDBMS convencional, que alguns acreditam ser: Vejo muito oba-oba sobre Big Data no mercado.

Mas algumas empresas estão olhando para essa explosão de volume como uma continuação da história, novas tecnologias, novas abordagens - mas como evolução e não revolução. Sim, o MapReduce é interessante, mas tecnicamente é mais complexo do que SQL e bancos relacionais. Está longe de ser uma panaceia. Jones sugere que, logo, o armazenamento de banco de dados relacionais extensos em memória será um realidade. Steve Jones fala também do Map Reduce. Então onde se encaixa o Big Data? Big Data e pesquisas em milhões documentos: um case brasileiro. Apache Drill: Big Data interativo. O Apache Drill é um sistema distribuído para análise interativa de Big Data baseado no Google Dremel (o Dremel está disponível como serviço Google IaaS BigQuery desde 2006).

O objetivo do Drill é processar eficientemente grandes conjuntos de dados, escalar para milhares de servidores e processar petabyes de dados e bilhões de registros em segundos. O projeto foi aceito para incubação na Apache Software Foundation em agosto de 2012, e está sendo reprojetado para o máximo de flexibilidade quanto às linguagens de consultas suportadas.

O Drill não é uma tentativa de substituir as estruturas de processamento em lotes de Big Data existentes, como o Hadoop MapReduce. Também não pretende substituir mecanismos de processamento em stream, como S4 ou Storm. O novo projeto da Apache procura preencher um vazio existente - no processamento em tempo real e interativo de grandes conjuntos de dados. Arquitetura O Drill é composto por três principais elementos: ● Um agregador de dados para armazenamento; Big data analytics guide for data architects. What is big data and how can it be used to gain competitive advantage? According to the "IBM Business Analytics and Optimization for the Intelligent Enterprise" study, one in three business leaders frequently make decisions without the information they need and half don't have access to the information they need to do their jobs. That has significant competitive implications.

Data analytics represents a massive opportunity for IT. Sanjay Mirchandani, chief information officer at EMC believes there is a perfect storm, driven by affordable IT and the ability to gather information. "The onus on IT is to leverage data," he says. EMC is beginning to build its internal IT expertise in "big data", with Mirchandani's chief architect now working alongside marketing to look at data flow. The information explosion that is unfolding as organisations try to make sense of emerging requirements such as social media campaigns on Facebook, along with the imminent roll-out of smart metering, will create vast quantities of data. The business case Technical challenges. Hadoop & Big Data. Doug Cutting, Cloudera's Chief Architect, helped create Apache Hadoop out of necessity as data from the web exploded, and grew far beyond the ability of traditional systems to handle it. Hadoop was initially inspired by papers published by Google outlining its approach to handling an avalanche of data, and has since become the de facto standard for storing, processing and analyzing hundreds of terabytes, and even petabytes of data.

Apache Hadoop is 100% open source, and pioneered a fundamentally new way of storing and processing data. Instead of relying on expensive, proprietary hardware and different systems to store and process data, Hadoop enables distributed parallel processing of huge amounts of data across inexpensive, industry-standard servers that both store and process the data, and can scale without limits. With Hadoop, no data is too big. What is MapReduce? - Definition from WhatIs.com. What is big data (Big Data)? - Definition from WhatIs.com. Big data is an evolving term that describes any voluminous amount of structured, semistructured and unstructured data that has the potential to be mined for information. By submitting your personal information, you agree that TechTarget and its partners may contact you regarding relevant content, products and special offers.

You also agree that your personal information may be transferred and processed in the United States, and that you have read and agree to the Terms of Use and the Privacy Policy. Big data is often characterized by 3Vs: the extreme volume of data, the wide variety of data types and the velocity at which the data must be processed. Although big data doesn't equate to any specific volume of data, the term is often used to describe terabytes, petabytes and even exabytes of data captured over time. Breaking down the 3Vs of big data Finally, velocity refers to the speed at which big data must be analyzed. How big data works.

Big data infrastructure demands. Gestão Informação. Freemind mapping. FreeMind is a premier free mind-mapping software written in Java. The recent development has hopefully turned it into high productivity tool. We are proud that the operation and navigation of FreeMind is faster than that of MindManager because of one-click "fold / unfold" and "follow link" operations. So you want to write a completely new metaphysics? Why don't you use FreeMind? You have a tool at hand that remarkably resembles the tray slips of Robert Pirsig, described in his sequel to Zen and the Art of Motorcycle Maintenance called Lila. Do you want to refactor your essays in a similar way you would refactor software? Did FreeMind make you angry? Download See Download. Get yourself what more than 4 000 users download each day. stats Project news See more at News. New beta FreeMind 1.1.0-Beta2.

New beta FreeMind 1.1.0-Beta1. New release FreeMind 1.0.1 available for download. New Release FreeMind 1.0.0 available (19 OCt 2013). Running To run FreeMind, do one of the following. Screenshots Tools. The Protégé Ontology Editor and Knowledge Acquisition System. Web Design & Development. JQuery & JS. Building Dynamic Websites | Harvard Video Course Page no 1.