Para las API empresariales, ¿es la integración de copia cero el David de Big Data Goliat?
Imagen: Gonin/Adobe Stock
En «El rey y yo» de Rodgers y Hammerstein, el rey le explica a «yo» que las abejas siempre vuelan de una flor a otra, pero las flores nunca vuelan de una abeja a otra. La Sra. Anna no cree en esta lógica de coqueteo, pero tiene sentido cuando se aplica a la relación entre las aplicaciones y los datos: ¿deberían los datos volar de una aplicación a otra, o debería ser como una flor? Como quedarse quieto y dejar que la aplicación abordarla de acuerdo con sus términos?
Un nuevo marco, formulado como un estándar abierto que acaba de aprobar el gobierno canadiense, está consolidando los datos.
Salta a:
¿Qué es la integración de copia cero?
La integración de copia cero es una iniciativa defendida por la empresa canadiense de datos colaborativos Cinchy. Su objetivo es derrocar el paradigma de integración de API de software empresarial con un modelo completamente nuevo, lo que la empresa llama software de datos, que conecta los datos a tierra de manera efectiva y elimina la complejidad y la redundancia de datos del proceso de integración de software empresarial.
Beneficios de la integración de datos cero
Los defensores de la integración de copia cero y el software de datos dicen que el marco reducirá los costos de almacenamiento de datos, mejorará el rendimiento de los equipos de TI, mejorará la privacidad y seguridad de los datos y promoverá la salud pública, la investigación social, la banca abierta y los sistemas sostenibles a través de la innovación Innovación:
- Desarrollo y enriquecimiento de aplicaciones.
- análisis predictivo.
- gemelo digital.
- Cliente 360 tecnología.
- Inteligencia artificial y aprendizaje automático.
- Automatización del flujo de trabajo.
- Modernice los sistemas heredados.
VER: Big data y los datos correctos: volverse más productivos en la nube (Tecnopedia)
El martes, el Canadian Digital Governance Council y la Data Collaborative Alliance sin fines de lucro creada por Cinchy anunciaron CAN/CIOSC 100-9, Data Governance – Part 9: Zero Copy Integration, un estándar nacional aprobado por el Canadian Standards Council Canada. para ser publicado como un estándar abierto.
Lea más sobre el anuncio y el Consejo Canadiense de Gobernanza Digital en este artículo de Tecnopedia.
La integración de copia cero tiene como objetivo eliminar los silos de datos controlados por API
Según el CEO de Cinchy, Dan DeMers, el marco tiene como objetivo eliminar los datos de la aplicación mediante el uso de la colaboración de datos basada en el acceso con la integración de datos basada en API estándar, lo que implica duplicar datos y etiquetarlos con una codificación compleja específica de la aplicación. Esto se hará a través de controles de acceso establecidos en la capa de datos. También implicará:
- Gobierno de datos a través de productos de datos y gestión federada en lugar de equipos centralizados.
- Los metadatos «centrados en datos» y de actividad tienen prioridad sobre el código complejo.
- La modularidad de la solución tiene prioridad sobre el diseño monolítico.
Informes de big data de lectura obligada
Los posibles proyectos para la integración de copia cero incluyen el desarrollo de nuevas aplicaciones, análisis predictivo, gemelos digitales, vistas de 360 grados de los clientes, operacionalización de AI/ML y automatización del flujo de trabajo, así como la modernización del sistema heredado y el enriquecimiento de la aplicación SaaS, dijo la iniciativa.
DeMers, que también forma parte del comité técnico de la norma, promete una revolución de datos.
«En algún momento de un mundo cada vez más complejo, caes por un precipicio, por lo que creemos que estamos al comienzo de una revolución en la simplificación», dijo. «La verdad es que los datos se están centralizando cada vez más y la forma en que los compartimos es a través de API y ETL, lo que implica crear copias y aumenta considerablemente la complejidad y el costo. Equivale a la mitad de la capacidad de TI de todas las organizaciones complejas del planeta. Y se vuelve más caro cada año».
Más preocupante, dice, es la pérdida de cierto grado de control cada vez que se hace una copia.
«Si dirijo un banco y tengo 1000 aplicaciones, todas necesitan interactuar con algún representante de mi cliente y, al duplicar a ese representante, ahora tengo 1000 copias de ese cliente», dijo DeMers. «¿Cómo lo protejo?»
VER: Lista de verificación de gobierno de datos de su organización (Tecnopedia Premium)
Seguro con marco de copia cero
Las leyes que describen la propiedad de los datos limitan cómo una organización o un gobierno pueden usar esos datos, pero son leyes, no controles sistémicos, señaló DeMers. Un punto clave del argumento de integración de datos cero y el marco de adopción en principio de Canadá es que facilita la seguridad de los datos al limitar el acceso y el control.
«La copia cero es un cambio de paradigma porque le permite incorporar controles dentro de los propios datos», dijo DeMers. «Debido a que se basa en los derechos de acceso, no en las copias, por lo que el acceso se puede otorgar y revocar, y las copias son para siempre, rápidamente se pierde el control sobre quién es el propietario, y cualquier intento de limitar el esfuerzo de la organización para obtener una copia es difícil».
El objetivo de Cinchy es la «arquitectura de estructura de datos», convirtiendo almacenes de datos, lagos y/o casas de lagos en repositorios que permitan software analítico y operativo. De esta manera, la aplicación puede acceder a ellos en lugar de traer una copia de los datos al jardín amurallado de la aplicación.
DeMers argumenta que cuesta dinero crear y almacenar réplicas, tanto por el almacenamiento y las canalizaciones de datos, como porque TI debe dedicar tiempo a administrar las iteraciones de datos generadas por los cientos o miles de aplicaciones que una empresa puede alojar.
«Una copia de datos requiere almacenamiento; crear una copia y sincronizarla no solo usa almacenamiento sino también computación», dijo. «Si imagina que la mayoría de los procesos se ejecutan en servidores bancarios hoy en día, están moviendo y coordinando copias de datos, y eso constituye uso de energía».
Duplicar y mover datos crea oportunidades para que se introduzcan errores, agregó. Si dos sistemas conectados por una tubería de datos no están sincronizados, los datos pueden perderse o corromperse, lo que reduce la calidad de los datos. Con una copia de datos compartida por todos los sistemas, es imposible que un registro aparezca de manera diferente en diferentes contextos.
¿Es la integración de copia cero el sueño de LA Metro?
Matt McLarty, CTO de MuleSoft de Salesforce, está de acuerdo en que la replicación de datos es un problema de larga data.
«Ni siquiera la duplicación de datos, sino datos semánticamente equivalentes en diferentes lugares», dijo.
Lo ve un poco como Los Ángeles y el metro: una buena idea en principio, pero nadie va a derribar Los Ángeles y reconstruirlo alrededor del transporte público.
«Este es tanto un gran problema como una realidad ineludible», dijo. “De la declaración del problema, sí, pero diría que hay múltiples categorías de software en este espacio, incluido Salesforce Genie, que se trata de aprovechar todos los datos de los clientes que están ampliamente distribuidos en todo el ecosistema”.
VER: Estudio: Empresas tienen más de 1.000 apps, pero solo una tercera parte están integradas (Tecnopedia)
Operar elefantes y analizar cebras beben del mismo lago de datos
McLarty explicó que la mayoría de las empresas tienen dos grandes dominios de datos que, aunque no se cruzan, deben usarse por separado: datos operativos y datos analíticos. Las aplicaciones orientadas al usuario, como la banca móvil, utilizan datos operativos; los datos analíticos extraen datos de los flujos de actividad operativa y los utilizan para el análisis y la inteligencia empresarial.
«Históricamente han vivido separados debido a las diferencias en el procesamiento», dijo. «Operacionalmente, hay un procesamiento y análisis a gran escala y de alta velocidad, con pequeños equipos internos que procesan grandes volúmenes de datos».
El papel del software de datos, entre otras cosas, es consolidar «estructuras de datos operativos», explicó DeMers. Esto, dijo, permite la integración «por última vez» de fuentes de datos externas en una arquitectura basada en una «red de conjuntos de datos» capaz de impulsar modelos comerciales ilimitados.
«Una vez creados, estos modelos pueden manipularse fácilmente como experiencias basadas en metadatos, o exponerse como API para admitir el diseño de UX de código bajo y código profesional», dijo, y agregó que elimina la necesidad de crear nuevas bases de datos, realizar Peer- necesidades de los compañeros. Apunte la integración de datos o configure la protección de datos específica de la aplicación.
«Otro concepto central relacionado con la tecnología de software de datos es la ‘inteligencia colaborativa’, que es el resultado de usuarios y sistemas conectados que enriquecen simultáneamente la información en una red de conjuntos de datos», dijo.
Los usuarios autorizados por el propietario para acceder al conjunto de datos reciben una interfaz llamada «navegador de datos» que brinda una «experiencia de autoservicio», dijo DeMers.
“En principio, es un poco como Google Docs, donde varios colegas colaboran en un libro blanco o una propuesta comercial, y el software sugiere automáticamente la sintaxis y administra las funciones, los permisos, el control de versiones y las copias de seguridad”, dijo.
El resultado final, agregó DeMers, son datos ultra ricos y protegidos automáticamente que los equipos pueden consultar instantáneamente para impulsar tableros ilimitados, vistas de 360 grados y otros proyectos analíticos.
¿Simplificarán las empresas o «abrazarán el caos»?
Según algunas estimaciones, las empresas están tomando la ruta de «abrazar el caos» hacia nuevos enfoques que reconocen que los marcos de datos empresariales seguirán siendo complejos y similares a los de Los Ángeles. Estos incluyen marcos de cuadrícula de datos, así como sistemas de automatización y aprendizaje automático para crear modelos que integren diferentes tipos de datos.
“Creo que el mayor cambio en el mundo de los datos en este momento es que dos mundos, el análisis y las operaciones, están chocando”, dijo McLarty. «Lo que está sucediendo ahora debido al movimiento de big data y el aprendizaje automático es la codificación derivada de datos: escribir código con datos, ingerir datos y generar modelos de aprendizaje automático basados en esos datos que puedo poner en mi aplicación».
El paradigma del software de datos respalda el concepto de cuadrícula de datos, dijo DeMers.
«Requerir un solo equipo para administrar cada conjunto de datos en una organización es una forma segura de fallar en el gobierno de datos», dijo.
También cree que en una organización centrada en los datos, los administradores de datos deben reflejar la granularidad del organigrama.
«Este enfoque de gobierno de datos federado organizado en torno a dominios de datos y productos de datos es la cuadrícula de datos, y es una parte esencial de la construcción de una empresa más ágil», dijo DeMers.
Los silos de datos dificultan esto, ya que implica una integración ilimitada de datos de punto a punto.
Liberar datos de aplicaciones
Sylvie Veilleux, ex CIO de Dropbox, dijo que los silos de datos son una parte fundamental de un ecosistema de software como servicio, pero es un problema que el software de datos puede resolver.
“Cada aplicación resuelve un propósito específico y único, y cada vez se especializan más”, dijo. «Mientras más se adopte SaaS, que es muy saludable en términos de la forma en que las empresas adquieren herramientas, más seguirá creando cientos o miles o más silos de datos en empresas más grandes. Si no tomamos un enfoque completamente nuevo Ven Pensando en aplicaciones de datos, ese número seguirá creciendo”.
Ella dijo que las piezas de datos y la integración de datos cero permiten a las empresas eliminar la integración de datos adicionales al conectar aplicaciones a fuentes de datos de red.
«Está cambiando la forma en que trabajamos, pasando los datos de estar cautivos en la aplicación a mantenerlos en la red, permitiendo a los usuarios colaborar y brindando acceso a las empresas en tiempo real», dijo Veilleux.
A medida que los repositorios de datos migran a la nube, lo que facilita la colaboración, las empresas tienen mayor flexibilidad y menores costos, pero ¿a costa de la seguridad y las amenazas? Descargue esta política de Tecnopedia Premium, que incluye orientación para ayudarlo a implementar una administración segura de datos en la nube para garantizar la integridad y privacidad de la información propiedad de la empresa.