Nuestra apuesta por la evolución tecnológica se hizo tangible el pasado 27 de noviembre con la nueva edición de los Sabadell Morning, dirigida a los equipos de Tecnología.

En esta ocasión, contamos con la participación de Confluent, proveedor líder en soluciones de data streaming.

Una sesión pensada para compartir visión, casos reales y aprendizajes sobre cómo las arquitecturas event-driven están impulsando plataformas más ágiles, conectadas y en tiempo real.

 

Del batch al real-time: una transformación clave para el banco

Durante años, la información se procesaba de manera periódica, en bloques y con cierto retraso. Hoy el valor está en poder acceder a los datos y reaccionar en tiempo real.

Y es que en el banco esta evolución se apoya en tecnologías que permiten que los sistemas se comuniquen entre sí de forma más ágil y segura, compartiendo información al instante.

Esto nos ayuda a mejorar la eficiencia, anticiparnos a las necesidades y tomar decisiones mejor informadas, avanzando hacia un modelo más conectado y orientado al cliente.

Y gracias a la sesión de Sabadell Morning con Confluent pudimos acercar esta visión de forma clara y práctica, mostrando cómo el uso del dato en tiempo real se convierte en un pilar clave de nuestra modernización tecnológica.

 

Una agenda pensada para aprender y compartir

A lo largo de la sesión se abordaron los pilares que están dando forma al futuro del data streaming en el banco:

Visión de Sabadell

El papel del data streaming en la modernización del banco.

Fundamentos del streaming

Por qué Kafka y las arquitecturas event-driven habilitan sistemas en tiempo real.

Confluent en acción

Capacidades avanzadas como Flink gestionado, gobernanza, seguridad, conectores o tableflow, que permiten escalar Kafka con garantías empresariales.

Demo en directo

Un caso de uso real sobre el Data Streaming Platform (DSP) del banco.

 


 

“Nuestro gran reto ahora es integrar cada vez más capacidades de Data Analytics consumiendo datos en tiempo real, para acelerar la toma de decisiones y generar más valor a partir del dato.”

Alberto Cruz, Director de Arquitectura de Datos

 


 

Kafka y Confluent: una palanca estratégica para el dato en movimiento

Otro tema que pusimos sobre la mesa fue cómo aplicamos la inteligencia artificial sobre flujos de información, transformando interacciones en material útil casi al instante, mediante procesos de transcripción, clasificación y enriquecimiento.

Además, Confluent desempeña un papel clave para que estas tecnologías puedan utilizarse de forma segura, ordenada y reutilizable, facilitando que distintos equipos trabajen con el dato en tiempo real con las mismas garantías.

 

Seguimos impulsando la transformación tecnológica

En el banco creemos firmemente en nuestra apuesta por una transformación tecnológica sólida, colaborativa y orientada al impacto real.

Y es que encuentros de este tipo refuerzan nuestra manera de innovar: compartiendo conocimiento y aprendiendo junto a partners estratégicos.

¡Seguimos!