Solicitar Orçamento
Home > Produtos > Qlik Compose Data Lakes

Qlik Compose Data Lakes

O Qlik Compose para Data Lakes automatiza seus pipelines de dados para criar conjuntos de dados prontos para análise....





Não encontrou algum software? Nós ajudamos!
Temos uma base com diversas empresas parceiras e softwares disponíveis
Entre em contato agora mesmo!

Fazer Orçamento

* Campos obrigatórios

Qlik Compose Data Lakes

Automatize pipelines de dados prontos para análise

O Qlik Compose para Data Lakes (anteriormente Attunity Compose) automatiza seus pipelines de dados para criar conjuntos de dados prontos para análise. Ao automatizar a ingestão de dados, a criação de esquemas e as atualizações contínuas, as organizações obtêm um tempo de valorização mais rápido dos investimentos existentes no data lake.

Ingestão universal de dados

Com suporte para uma das mais amplas faixas de fontes de dados, o Qlik Compose for Data Lakes ingere dados no seu data lake, seja no local, na nuvem ou em um ambiente híbrido. As fontes incluem:

  • RDBMS: DB2, MySQL, Oracle, PostgreSQL, SQL Server, Sybase
  • Armazéns de dados: Exadata, IBM Netezza, Pivotal, Teradata, Vertica
  • Hadoop: Apache Hadoop, Cloudera, Hortonworks, MapR
  • Nuvem: Amazon Web Services, Microsoft Azure, Google Cloud
  • Sistemas de mensagens: Apache Kafka
  • Aplicativos corporativos: SAP
  • Sistemas legados: DB2 z / OS, IMS / DB, RMS, VSAM

Fácil estruturação e transformação de dados

Uma interface de usuário intuitiva e guiada ajuda a criar, modelar e executar pipelines de data lake.

  • Gere automaticamente esquemas e estruturas do Hive Catalog para armazenamentos de dados operacionais (ODS) e armazenamentos de dados históricos (HDS) sem codificação manual.

Atualizações contínuas

Tenha certeza de que seus ODS e HDS representam com precisão seus sistemas de origem.

  • Use a captura de dados alterados (CDC) para permitir análises em tempo real com menos sobrecarga administrativa e de processamento.
  • Aproveite o particionamento baseado em tempo com consistência transacional para garantir que apenas as transações concluídas dentro de um tempo especificado sejam processadas.

Aproveite a mais recente tecnologia

Aproveite os avanços do Hive SQL e Apache Spark, incluindo:

  • Os últimos avanços do Hive SQL, incluindo a operação ACID MERGE, que processa com eficiência inserções, atualizações e exclusões de dados, garantindo a integridade dos dados.
  • Processamento de pushdown para mecanismos Hadoop ou Spark. A lógica de transformação gerada automaticamente é transferida para o Hadoop ou Spark para processamento à medida que os dados fluem pelo pipeline.

Armazenamento de dados históricos

Derive conjuntos de dados específicos da análise a partir de um armazenamento de dados históricos completo (HDS).

  • Novas linhas são automaticamente anexadas ao HDS quando as atualizações de dados chegam dos sistemas de origem.
  • Os novos registros HDS são automaticamente marcados no tempo, permitindo a criação de análises de tendências e outros data marts analíticos orientados ao tempo.

Requisitos do sistema:

CPU: processador dual core de 1,8 GHz

RAM: 2 GB

HDD / SSD: 50 GB de espaço livre na unidade principal

Sistema operacional: Microsoft Windows 8 32 bits, Microsoft Windows 7 32 bits e Microsoft Windows Vista 32-bit

Resolução: 1024×768

Topo


Fazer Orçamento

* Campos obrigatórios

Não sabe qual software precisa ou não encontrou o que procurava?

Não sabe qual software precisa ou não encontrou o que procurava? Nós temos um time preparado para te ajudar a escolher o software ideal para sua empresa.