10 tendências quentes de Análise de Dados (Data Analytics) 

Big Data, Machine Learning, Data Science – a revolução da análise de dados está evoluindo rapidamente. Mantenha seus profissionais de Business Intelligence (BI) e Business Analytics (BA) e cientistas de dados à frente com as mais recentes tecnologias e estratégias.

Data Analytics está rapidamente se tornando a força vital da TI com uma variedade de tecnologias e técnicas a fim de analisar grandes volumes de dados e está se expandindo em um ritmo acelerado. Para obter insights profundos sobre o comportamento do cliente, o desempenho dos sistemas e as novas oportunidades de receita, sua estratégia deve se beneficiar de estar no topo das tendências mais recentes.

Aqui você pode dar uma olhada nas tecnologias de análise de dados, técnicas e estratégias que estão esquentando. De analistas de negócios a cientistas de dados, todo mundo que trabalha nessa área está sendo impactado por esta revolução. Caso a sua organização procura aproveitá-la para inteligência acionável, o índice de calor das tendências a seguir deve ser o seu guia.

 

SELF SERVICE BI

Quem:  Profissionais e Gerentes de BI e BA

Com ferramentas de BI de autoatendimento, como o Tableau, o Qlik Sense, o Power BI e o Domo, os gerentes podem obter informações comerciais atuais em formato gráfico sob demanda. Embora uma determinada configuração de TI possa ser necessária desde o início e ao adicionar uma fonte de dados, a maior parte do trabalho na limpeza de dados e na criação de análises pode ser feita por analistas de negócios. Assim sendo, as verificações podem ser atualizadas automaticamente a partir dos dados mais recentes a qualquer hora que eles são abertos.

Dessa forma, os gerentes interagem com as análises graficamente com o propósito de identificar problemas que precisam ser abordados e/ou solucionados. Por exemplo: em um dashboard gerado por BI ou em uma “história” sobre números de vendas, isso pode significar fazer drill down para encontrar lojas, vendedores e produtos com desempenho insatisfatório, ou descobrir tendências nas comparações anuais das mesmas lojas. Essas descobertas podem, por sua vez, guiar decisões sobre níveis futuros de estoque, vendas, promoções e até mesmo a construção de lojas adicionais em áreas insuficientemente atendidas.

 

MOBILE DASHBOARDS

Quem:  Profissionais, Gerentes e Desenvolvedores de BI e BA

Em um mundo onde os gerentes raramente estão em suas mesas, as ferramentas de gerenciamento precisam apresentar painéis de controle compatíveis com dispositivos móveis com a finalidade de serem úteis e oportunas. A maioria das ferramentas de Business Intelligence de autoatendimento já possui esse recurso, porém nem todas as principais métricas de negócios passam necessariamente por ela.

Por exemplo: é provável que uma fábrica tenha um sistema de controle de qualidade dedicado que monitore todas as linhas de produção. A vista disso os gerentes precisam saber se alguma das linhas se afastou da tolerância em poucos minutos do evento. Isso é feito facilmente com um aplicativo que consulta o banco de dados de controle de qualidade a cada minuto, atualiza e exibe um gráfico de controle do Shewhart que, opcionalmente, aciona um alarme quando uma linha sai da especificação.

 

LINGUAGEM R

Quem: cientistas de dados com forte conhecimento em estatística

A análise de dados apresenta muitas opções para analisar dados usando métodos estatísticos. Um dos métodos mais poderosos é usar a linguagem de programação R que é uma das melhores formas para criação de análise reproduzível de alta qualidade. Ao contrário de uma planilha, os scripts R podem ser auditados e reexecutados facilmente. A linguagem R e seu pacote de repositórios oferecem ampla gama de técnicas estatísticas, manipulação de dados e plotagem, a ponto que, se uma técnica existe, é provavelmente implementada em um pacote R. A linguagem R está disponível como uma fonte de código aberto, e está integrado em dezenas de produtos comerciais, incluindo o Microsoft Azure Machine Learning Studio e o SQL Server 2016.

DEEP NEURAL NETWORKS (DNN)

Quem: Cientistas de Dados

Alguns dos mais poderosos algoritmos de aprendizagem profunda são as Deep Neural Networks ou Redes Neurais Profundas (DNNs). Elas são construídas a partir de várias camadas (alternando o termo “profundo”) de unidades de processamentos linear e não linear, e são treinadas usando cálculos de grande escala e quantidades de dados de treinamento. Desta maneira, pode ter de 10 a 20 camadas ocultas, enquanto uma rede neural típica possui apenas algumas.

Quanto mais camadas na rede, mais características ela pode reconhecer. Assim sendo, mais tempo levará para calcular e mais difícil o treinamento. Os pacotes para a criação de redes neurais profundas incluem o Caffe, o Microsoft Cognitive Toolkit, o MXNet, o Neon, o TensorFlow, o Theano e o Torch.

 

TENSOR FLOW

Quem: Cientistas de Dados

O TensorFlow é o aprendizado de máquina de código aberto e biblioteca de redes neurais do Google, e serve de base para a maioria, se não para todos os serviços de aprendizado da plataforma. Nos nossos smartphones as ferramentas do Google Tradutor e Maps usam redes neurais baseadas nesse serviço. Seus modelos estão por trás das APIs de Machine Learning aplicadas para o Google Cloud Natural Language, o Speech, o Translate e o Vision.

Os Cientistas de Dados utilizam-no ainda para superar barreiras consideráveis ​​para o aprendizado do framework. O TensorFlow possui flexibilidade profunda; verdadeira portabilidade; capacidade de conectar pesquisa e produção; autodiferenciação de variáveis ​​e a capacidade de maximizar o desempenho priorizando GPUs sobre CPUs.

 

MXNet

Quem: Cientistas de Dados

O MXNet (pronuncia-se “mix-net”) é uma estrutura de aprendizagem profunda semelhante ao TensorFlow. Ele não possui a depuração visual disponível para o software anterior, ainda que oferece uma linguagem imperativa para cálculos de tensores que o ele não possui. A plataforma paraleliza automaticamente operações simbólicas e imperativas, e uma camada de otimização gráfica acima de seu agendador torna a execução simbólica rápida e eficiente em memória.

Atualmente, o MXNet suporta modelos de construção e treinamento em Python, R, Scala, Julia e C ++. Os Modelos treinados também são utilizados ainda ​​para previsão em Matlab e JavaScript. Não importa qual idioma você usa para construir seu modelo, esta estrutura chama um mecanismo de back-end C ++ otimizado.

 

MICROSOFT COGNITIVE TOOLKIT 2.0

Quem: Cientistas de Dados

O Microsoft Cognitive Toolkit ou CNTK 2.0, é um kit de ferramentas de aprendizado profundo unificado que descreve as redes neurais como uma série de etapas computacionais por meio de um gráfico direcionado. Possui muitas semelhanças com o as ferramentas anteriores, ainda que a Microsoft afirme que ele é mais rápido que o TensorFlow especialmente para redes recorrentes, tem suporte de inferência mais fácil de integrar em aplicativos e possui leitores de dados integrados eficientes que suportam aprendizado distribuído.

O Cognitive Toolkit é a tecnologia subjacente para Microsoft Cortana, tradução ao vivo do Skype, Bing e alguns recursos do Xbox.

  

SCIKIT-LEARN

Quem: Cientistas de Dados

Scikits são caixas de ferramentas científicas baseadas em Python e construídas em torno do SciPy, a biblioteca Python para computação científica. O Scikit-learn é um projeto de código aberto focado em Machine Learning, cuidadoso ao evitar o aumento de escopo e a utilização de algoritmos não comprovados. No entanto, ele possui uma ótima seleção de algoritmos sólidos, e usa o Cython – o compilador Python para C – para funções que precisam ser rápidas, como loops internos.

Entre os territórios não abrangentes, estão os aprendizados profundo e por reforço; os modelos gráficos e a predição de sequências. Ele é definido como sendo para Python, de modo que não tem APIs para outras linguagens. O Scikit-learn não é compatível com o PyPy (a rápida implementação em tempo real de compilação do Python), não suporta a aceleração de GPUs, com poucas necessidades para além das redes neurais.

O Scikit-learn obtém as notas mais altas para facilitar o desenvolvimento em todas as estruturas de aprendizado de máquina testadas. Os algoritmos funcionam como anunciados e documentados; as APIs são consistentes e bem projetadas e há poucas “incompatibilidades de impedância” entre as estruturas de dados. Assim sendo é mais fácil trabalhar com uma biblioteca na qual os recursos foram completamente desenvolvidos e os bugs totalmente eliminados.

 

NOTEBOOKS JUPYTER

Quem: Cientistas de Dados

O Notebook Jupyter, originalmente chamado de IPython Notebook, é um aplicativo da Web de código aberto que permite aos cientistas de dados criar e compartilhar documentos que contenham código ativo, equações, visualizações e texto explicativo. Seu uso inclui ainda limpeza e transformação de dados, simulação numérica, modelagem estatística, aprendizado de máquina entre outros.

Os notebooks da Jupyter se estabeleceram como o ambiente de desenvolvimento preferido por muitos cientistas de dados e pesquisadores em Machine Learning. Eles são componentes padrão no Azure, Databricks e em outros serviços online que incluem aprendizado de máquina e big data. Um acrônimo solto que significa Julia, Python e R, “Jupyter” baseia-se nas três linguagens populares para análise de dados e os primeiros alvos para os kernels do Notebook, ainda que atualmente existam kernels Jupyter para cerca de 80 idiomas.

 

ARMAZENAMENTO E ANÁLISE EM NUVEM

Quem: Profissionais de BI e BA, Cientistas de Dados

Um dos mantras da análise eficiente é “fazer a computação onde os dados residem”. Uma vez que você não siga ou não pode seguir essa regra, provavelmente terá grandes atrasos se os dados se moverem pela rede local e demoras ainda maiores caso ele passe pela Internet. É por isso que, por exemplo, a Microsoft recentemente adicionou o suporte R ao SQL Server.

À medida que a quantidade de dados gerados por uma empresa cresce exponencialmente, a capacidade dos data centers pode não ser suficiente. Assim, é necessário adicionar armazenamento em nuvem. Depois que os dados estiverem lá, a análise também deve ser. Eventualmente, a maioria dos novos projetos deverá ser implementada na nuvem, e os planejamentos existentes serão migrados, transferindo sua empresa do CapEx para o mundo OpEx.

Posts Relacionados

Alguns Clientes

Translate »