Francisco Sánchez Noguera
Ingeniero Senior de Plataformas de Datos
📍 España (Remoto)
Ingeniero de Software con más de 6 años de experiencia en ingeniería de datos, ingeniería de plataformas y sistemas distribuidos. Experto en Python, Spark, Terraform y Azure — desde la optimización de jobs que ahorraron al cliente más de 100k EUR/año hasta el aprovisionamiento de más de 300 plataformas de datos a escala.
Experiencia Laboral
Ingeniero Senior de Software
BASF
2025-01 — Present
Contratación interna liderando la ingeniería de plataforma para una nueva plataforma de datos combinando Azure, AKS, Databricks e infraestructura como código con CDKTF y Terraform.
- Liderando el despliegue de Databricks y Unity Catalog en la nueva plataforma basada en CDKTF, contribuyendo la mayor parte de los constructos de infraestructura
- Diseñé un proceso de migración de estado sin downtime permitiendo la importación de recursos en más de 300 plataformas sin impacto en los usuarios
- Resolví un incidente crítico en producción en 1 hora auditando tablas de Unity Catalog y revirtiendo cambios de configuración, previniendo la paralización del procesamiento de datos en todas las plataformas
- Definí la arquitectura de control de acceso basado en roles mediante ADRs e implementé los permisos en el portal y la infraestructura
- Colaboré con arquitectos en el diseño de la topología de red de la nueva plataforma
- Implementando la ingesta de logs y métricas en múltiples clústeres usando Grafana OSS, configurando collectors Alloy, receivers y pipelines de scraping
Ingeniero Senior de Datos
Capitole Consulting (Cliente: BASF)
2023-03 — 2024-12
Consultor liderando dos grandes proyectos en BASF: entrega de una plataforma de datos analíticos de cosmética, y posteriormente desarrollador principal de la infraestructura de aprovisionamiento de plataformas de datos Azure para más de 300 workspaces.
- Entregué un release de analítica de cosmética previsto a 12 meses en menos de 6 meses usando arquitectura Medallion con procesamiento Delta Lake
- Lideré la refactorización del código de aprovisionamiento de plataformas (Terraform + Python), mejorando la tasa de éxito de los pipelines del 20% al 90% y reduciendo el tiempo de ejecución de 1.5 horas a 30 minutos
- Reduje el aprovisionamiento de plataformas de 4 horas a 20 minutos orquestando workflows de GitHub Actions con Terraform para infraestructura y Python para configuración
- Construí una API REST con FastAPI y Container App Jobs para operaciones federadas en la Account de Databricks
- Orquesté el despliegue de Unity Catalog en más de 300 workspaces de Databricks con solo un 1% de tasa de incidencias
- Lideré un equipo de 5 ingenieros, incrementando la cobertura de tests del 10% al 85% mediante revisiones de código, pair programming y buenas prácticas de Python
- Realicé ~30 entrevistas técnicas para posiciones de Ingeniero Senior de Datos, resultando en 6 contrataciones
- Gestioné la Comunidad de Datos en Capitole: newsletter quincenal, meetups y charlas técnicas alcanzando a más de 100 ingenieros de datos
Desarrollador Big Data
Kenmei Technologies
2022-01 — 2023-03
Ascendido al departamento de Big Data, procesando conjuntos masivos de datos de telecomunicaciones con Scala y PySpark en Google Dataproc y Azure Databricks.
- Optimicé un pipeline de datos PySpark de 20 horas a 4 horas (-80%), ahorrando al cliente más de 100k EUR anuales en costes de clúster
- Llevé el algoritmo de detección de Interferencia Uplink a producción con PySpark distribuido, reduciendo la ejecución de 60 minutos (nodo único) a 6 minutos (-90%)
- Construí un producto de clasificación geoespacial con Scala y Sedona, categorizando tiles como indoor/outdoor en países enteros
- Uno de solo dos ingenieros capaces de contribuir al producto CallTraces — un sistema complejo de procesamiento de trazas en tiempo real con Scala/Spark
Ingeniero Junior de Innovación
Kenmei Technologies
2019-06 — 2022-01
Ingeniero de I+D trabajando directamente con el CTO en proyectos individuales para clientes de telecomunicaciones, construyendo servicios Python de alto rendimiento y algoritmos de procesamiento de señal.
- Construí un servicio de geolocalización de drones en tiempo real logrando más de 100 geolocalizaciones/segundo (16× el objetivo del cliente) usando vectorización NumPy y MQTT asíncrono
- Desarrollé un servidor TCP de alto rendimiento procesando ~550 Mb/s con Cython y Numba — limitado por la interfaz de red, no por CPU
- Creé mapas de cobertura distribuidos con particionamiento espacial en Dask, reduciendo el procesamiento a nivel de país de 4 horas a 35 minutos (-85%)
- Diseñé un algoritmo de detección de Interferencia Uplink usando FFT y métricas RSRQ/SINR para identificación de patrones PIM — posteriormente productivizado a escala en Big Data
- Recibí reconocimiento del CTO de un importante cliente de telecomunicaciones por la calidad de entrega del proyecto
Habilidades
Lenguajes
Ingeniería de Datos
Cloud e Infraestructura
Backend y APIs
Observabilidad y Calidad
Certificaciones
Databricks Certified Data Engineer Professional
Databricks
Issued: 2026-01 · Expires: 2028-01
Verify credential →Certified Kubernetes Application Developer (CKAD)
The Linux Foundation
Issued: 2025-06 · Expires: 2027-06
Databricks Certified Associate Developer for Apache Spark 3.0
Databricks
Issued: 2024-09
AWS Certified Cloud Practitioner
Amazon Web Services
Issued: 2024-06 · Expires: 2027-06
Microsoft Certified: Azure Fundamentals (AZ-900)
Microsoft
Issued: 2024-03
Formación
Máster Habilitante in Ingeniería de Telecomunicaciones
Universitat Politècnica de València
Graduated: 2019-06-15
Grado in Ingeniería de Telecomunicaciones
Universitat Politècnica de València
Graduated: 2018-06-15
CubeSats Concurrent Engineering Workshop in Diseño de Sistemas Satelitales
European Space Agency (ESA)
Graduated: 2019-06-15