Stambia Data Integration

En un contexto en el que la data está en el corazón de las organizaciones, la integración de datos se convierte en un proceso clave para el éxito de las transformaciones digitales. No hay transformación digital sin movimiento o transformación de datos.

Las organizaciones deben asumir varios retos:

  • Poder interconectar los sistemas de información
  • Tratar de manera ágil y rápida crecientes volúmenes de datos y tipos de información muy diferentes (dato estructurado, semiestructurado o no estructurado)
  • Manejar de manera adecuada tanto cargas masivas como ingestas de datos en tiempo real, con el fin de tomar decisiones pertinentes
  • Tener control y dominio sobre los costos de infraestructura del dato

En este contexto, Stambia responde aportando una solución unificada para todo tipo de tratamiento del dato, la cual puede desplegarse tanto en la nube como en sitio, y que garantiza un dominio y una optimización de los costos de posesión y transformación del dato.

 

Para profundizar en estos puntos, consulte nuestra página ¿Por qué Stambia?

arquitectura stambia data integration

Los casos de uso de Stambia Data Integration

Los proyectos con Stambia

Con una arquitectura única y la misma plataforma de desarrollo, Stambia Enterprise permite abordar todo tipo de proyecto de integración de datos, ya sean proyectos que aborden volumetrías de datos muy grandes o proyectos orientados principalmente al tiempo real.

A continuación se muestra una lista no exhaustiva de proyectos realizables:

  • Alimentación de bases de datos decisionales (datawarehouses, datamarts, infocentros), inteligencia de negocio (business intelligence)
  • Proyecto Big Data, Hadoop, Spark y No SQL
  • Migración de plataforma hacia la nube (Google Cloud Plateform, Amazon, Azure, Snowflake...)
  • Intercambio de datos con terceros (API, Servicios Web)
  • Proyecto de Data Hub, intercambio de datos entre aplicaciones (modo batch o tiempo-real, exposición o utilización de Servicios Web)
  • Replicación de datos entre bases heterogéneas
  • Integración o producción de archivos
  • Gestión de repositorios de datos de negocio
     

     

    Algunos ejemplos de arquitecturas con Stambia

    ¿Cómo funciona Stambia Data Integration?

    Stambia está basado en varios conceptos clave

    Un Mapeo Universal

    Contrariamente a los enfoques tradicionales, orientados a procesos químicos, Stambia propone una visión "universal" del mapeo de datos (mapping): toda tecnología debe poder ser alimentada o leída de manera simple, sin importar su estructura y su complejidad (tabla, archivo, Xml, Servicio Web, Aplicación SAP, ...) Es una visión Data, orientada al negocio.

    Para saber más consulte la página "Mapeo Universal".

    Un enfoque por modelos

    El enfoque Stambia está basado en los modelos. La noción de plantillas (templates) o de tecnologías adaptativas ofrece una capacidad de abstracción y de industrialización de los flujos. Esta metodología permite ganar productividad, agilidad y calidad en los proyectos realizados.


    Para saber más consulte la página "El enfoque por modelos".

    Un modo ELT

    La arquitectura en modo "delegación de transformación o ELT permite maximizar los rendimientos, disminuir los costos de infraestructura y tener un dominio de los flujos realizados.



    Para saber más consulte la página "El enfoque ELT".

    Un dominio de la trayectoria

    La visión de Stambia es permitir a sus clientes dominar los costos de posesión de plataformas de integración de datos. Esto es posible gracias al modelo enconómico de Stambia y a los enfoques tecnológicos escogidos que permiten aumentar la productividad y reducir la curva de aprendizaje.

    Para saber más consulte nuestra Oferta tarifaria.

    Y una arquitectura simple y ligera

    La arquitectura de Stambia Enterprise se basa en tres componentes simples:

    • Los Designers son los puestos de desarrollo y de prueba. Los Designers se basan en una arquitectura Eclipse que facilita el compartir así como una gestión flexible de los desarrollos y de los proyectos en equipo.

    • Los Runtimes son los procesos que ejecutan los trabajos (jobs) en producción. Se basan en una arquitectura Java que facilita su despliegue en sitio o en la nube. Son compatibles con Docker y las arquitecturas Kubernetes.

    • Stambia Analytics es el componente web que permite la puesta en producción (despliegue, parametraje y planificación) y el seguimiento de trabajos (job tracking), así como el pilotaje de diferentes runtimes.
    architecture stambia data integration

    Especificaciones y prerrequisitos técnicos

    EspecificacionesDescripción

    Arquitectura simple y ágil

    • 1. Designer: ambiente de desarrollo
    • 2. Runtime: motor de ejecución de los procesos de integración de datos, Servicios Web, ...
    • 3. Production Analytics: consulta de las ejecuciones y puesta en producción
    Conectividad

    Usted puede extraer los datos de:

    • Todo sistema de base de datos relacional como Oracle, PostgreSQL, Microsoft SQL Server (MSSQL), MariaDB, ...
    • Todo sistema de base de datos NoSQL como MongoDB, Elasticsearch, Cassandra, ...
    • Todo sistema de base de datos de alto rendimiento como Netezza, Vertica, Teradata, Actian Vector, Sybase IQ, ...
    • Todo sistema Cloud como Amazon Web Service (AWS), Google Cloud Plateform (GCP), Microsoft Azure, Snowflake, ...
    • Toda aplicación ERP como SAP, Microsoft Dynamics, ...
    • Toda aplicación SAAS como Salesforce, Snowflake, Big Query, ...
    • Todo sistema de Big Data como Spark, Hadoop, ...
    • Todo sistema de mensajería MOM, ESB como Apache Active MQ, Kafka, OpenJMS, Nirvana JMS, ...
    • Todo sistema de archivos como CSV, XML, JSON, ...
    • Todo sistema de hoja de cálculo como Excel, Google Spreadsheet, ...

    Para más informaciones, consulte nuestradocumentación técnica

     

    Conectividad técnica
    • FTP, SFTP, FTPS
    • Email (SMTP)
    • LDAP, OpenLDAP
    • Kerberos

    Características estándar

    • Reverse: la estructura de la base de datos puede ser revertida gracias a la noción de metadatos obtenidos a partir de ingeniería inversa
    • Operaciones DDL/DML: soporta operaciones de manipulación de objetos y datos (DML/DLL) como inserción, actualización, supresión, etc. (Insert o Insertar, Update o Actualizar, Select o Seleccionar, Delete o Eliminar, Create o Crear, Drop o Soltar)
    • Método de integración: Append, Incremental Update
    • Staging: una base de datos puede ser utilizada como etapa intermedia (staging area) para la transformación, conciliación de datos, etc. Los modos soportados son:
      • staging como subconsulta
      • staging como vista
      • staging como tabla
    • Rechazo: pueden ser definidas reglas de rechazo para filtrar o detectar los datos que no respetan las condiciones definidas durante el proceso de integración:
      • 3 tipos de rechazo pueden ser creados: Fatal, Warning (advertencia), Reject (rechazo)
      • Tratamiento diferenciado para cada dato rechazado en función del tipo de dato
      • Reciclaje de los rechazos creados durante las ejecuciones precedentes
    • Replicación: la replicación de bases de datos es soportada a partir de cualquier fuente, como bases de datos relacionales o NoSQL, archivos planos, archivos XML/JSON, sistemas Cloud, etc.
    Características avanzadas
    • Slowly Changing Dimension (SCD): los procesos de integración pueden ser realizados utilizando los cambios de dimensión de evolución lenta (SCD)
    • Método de carga:
      • Generic load (carga genérica)
      • COPY loader
    • Change Data Capture (CDC)
    • Privacy Protect: módulo para la gestión del RGPD con funcionalidades de:
      • Anonimización
      • Seudonimización
      • Auditorías
      • ...
    • Data Quality Management (DQM) : gestión de la calidad de los datos integradas directamente a los metadatos y en el Designer
    Prerequisitos técnicos
    • Système d'exploitation :
      • Windows XP, Vista, 2008, 7, 8, 10 en modo 32 o 64 bits
      • Linux en modo 32 o 64 bits
      • Mac OS X en modo 64 bits
    • Memoria
      • Al menos 1 Gb de RAM
    • Al menos 1 Gb de RAM
      • Como mínimo debe tener 300 Mb de espacio en disco disponible
    • Ambiente Java
      • JVM 1.8 o superior
    • Notas : para Linux, es necesario disponer de un sistema de ventanas GTK+ 2.6.0 con todas las dependencias
    Despliegue Cloud (en la nube) Image Docker disponible para los motores de ejecución (Runtime) y componentes de Production Analytics
    Estándares soportados
    • Open API Specifications (OAS)
    • Swagger 2.0
    • W3C XML
    • Conforme con WSI (WSI compliant)
    • SQL
    Lenguaje de Scripting Jython, Groovy, Rhino (Javascript), ...
    Software de control de versiones Cualquier plugin soportado por Eclipse: SVN, CVS, Git, ...
    Migrar desde Oracle Data Integrator (ODI) *, Informatica *, Datastage *, talend, Microsoft SSIS

    * posibilidad de migrar de manera transparente (seamless)

    ¿Desea saber más?

    Consulte nuestros diferentes recursos

    Anonymisation
    Pida consejo a uno de nuestros expertos en integración de datos
    Contáctenos
    Anonymisation
    Descubra nuestras acciones de formación y certificaciones
    Contáctenos
    Anonymisation
    Su demo hecha a la medida
    Obtenga su demo