Eduardo Rivero | Portfolio

Hola, ¡que tal! soy

Eduardo Rivero

Me espacializo en:

Analizo y extraigo datos desde repositorios como Data Warehouse o Data Lake. Consumo datos estructurados y no estructurados On-Premise en flujos de datos ETL para modelamiento y estandarización en procesos de producción, análisis y/o desarrollo, usando librerías de Machine Learning como Pandas, NumPy, Matplotlib, Sckit-Learn y Deep Learning como Keras y Tensorflow, para crear analíticas, estimaciones, balances exploratorios, predicciones y visualizaciones en cuadernos Jupyter o Databricks. Administro cuentas con PowerShell o Bash. Además, desarrollo flujos de datos en cluster, exploro con Spark-shell, dataframes, dataflow y schemas; uso los RDD con Apache Spark (PySpark)/Python o Scala en tiempo real o por lotes. Dispuesto a reubicarme. Para visualización utilizo PowerBI.

Sobre Mi

Ingeniero Agrónomo

Hola, trabajo desde hace muchos años con datos. Mi objetivo es aportar resultados en el menor tiempo posible, poseo conocimientos y habilidades informáticas, pero si no lo se, te aseguro que lo voy averiguar. Mi metodología es simple, pero muy sólida partiendo desde como trabajar hojas de cálculo con MS Excel, usando análisis funcional para crear tablas y gráficos dinámicos, hasta obtener datos complejos. Cada proceso y skillset son únicos, específicos y van a depender de cada responsable. Trabajo desde hace años con herramientas informáticas dedicadas, como: hojas de cálculo, Queries de bases de datos con SQL, configuro y trabajo con lenguajes de alto rendimiento como Python, Scala o R y sus herramientas colaborativas. Y adicional a todo esto, si te inclinas más con visualizaciones mi herramienta es PowerBI donde trabajo con dashboards para mostrar gráficos y tendencias.

Experiencia Laboral

2020-2023. Allspreadsheet.com - Freelance

  • Queries de bases de datos, Clases, Clausulas, Uniones, Agrupaciones, Agregaciones, definición, manipulación y control de comandos de lenguaje con SQL.
  • Desarrollo de scripts e implementación en modelos automatizados de aprendizaje supervisado y No supervisado con Python.
  • Análisis y modelamiento con: Pandas, NumPy, Matplotlib, Scikit-Learn, Seaborn, SciPy, Keras o TensorFlow.
  • Gestiones de exploración, recopilación, transformación, filtrado y limpieza.
  • Bases de datos usadas: libros estructurados, archivos planos, formatos AVRO, Parquet, JSON.
  • Conexión HDFS con Apache Hadoop y MapReduce.
  • Conocimientos esenciales de desarrollo con SCALA.

2019 – 2020 Grupo Tragsa S.A – Empresa Estatal - Operador TIc

  • Operador informático del Sistema Automático de Información Hidrológica (SAIH), para un proyecto de la Confederación Hidrológica del Tajo.
  • Análisis y monitorización de incidencias en los puntos críticos de control de la cuenca.
  • Carga de datos en las campañas de los embalses y aforos de la cuenca.
  • Administración sobre niveles de los caudales en los puntos de control.
  • Monitorización de las alertas hidráulicas y de sistemas que conforma cada punto de control.


2019 – 2019 TUYÚ Technology - Operador TIc

  • Operador informático del CIB para un proyecto del BBVA España, trabajé la monitorización en eventos.
  • Análisis de servidores, bases de datos. Reinicio y balanceo de diferentes aplicativos, recursos y máquinas de producción y desarrollo.
  • Herramientas corporativas tales como BMC Proactive, Control-M, Autenticación de token, Gestor centralizado de incidencias (GSAI), administración de tareas (JIRA).
  • Tratamiento sobre bases de datos en servidores Windows (VMWare) y Linux (PuTTy).
  • Movimiento de ficheros entre distintos servidores.

2018 – 2018 Servicios Sociales de Telecomunicaciones S.L.U – Operador

  • Análisis de la línea de abonados digital asimétrica (ADSL) gestionando la cobertura por el territorio español en Zonas Urbanas y Rurales.
  • Clasificación de servicios de fibra óptica (FTTH), línea de cobre (ADSL) y Movistar TV.
  • Regularización de clientes abonados a la suscripción.

2017 – 2017 Buzinger S.L Programador de Sistemas Informáticos. – Prácticas

  • Uso de Spring Boot como lenguaje de programación.
  • Desarrollo de un sistema informático para gestionar un servicio en línea sobre procesos de compras.
  • Evaluación de la API de Zoho para el servicio en línea.

2011 – 2015 PepsiCo Alimentos Venezuela S.C.A. – Ingeniero Agrónomo

  • Operador de BBDD para la toma de decisiones y adquisición de materias primas.
  • Desarrollo de KPIs estratégico con cuadros de mando mediante normalización y modelado de bbdd.
  • Arquitectura y automatización de informes.
  • Gestión de agroquímicos, leyes, clima y desarrollo de tierras para el programa de sostenibilidad.
  • Evaluación de previsiones para la producción de materias primas.
  • Elaboración de Dashboard. Mejora del Scorecard y hoja de campo.

2010 – 2011 Kimberly Clark Venezuela C.A. – Ingeniero de compras

  • Operando sobre la BBDD relacionales para la toma de decisiones.
  • Desarrollo de KPIs estratégicos y cuadros de mandos.
  • Análisis de indicadores para la compra de fibra secundaria.
  • Incremento del 40 % de la compra con 25 % en margen.
  • Incremento mensual de la compra en 22 %.
  • Incremento del 12 % en la entrega efectiva a la planta productora.

Mis Habilidades

Bases de Datos

Facilito el procesamiento y la gestión de las bases de datos relacionales al permitir realizar consultas complejas que extraigan, filtren y agreguen información de forma eficiente. Opero con la normalización, la eliminación de valores atípicos y con la transformación de variables, beneficiando las estructuras que ofrecen los repositorios. Además, a través de herramientas diseñadas, realizo la conexión directa e indirecta a las BBDD, permitiendo pipelines o canalizaciones de datos automatizados que optimizan el flujo de trabajo entre los procesos ETL y su posterior entrenamiento. Utilizo sqlite3 para bases ligeras y MySQL para bases robustas.

Machine Learning

Elaboro modelos de Machine Learning basados en el entrenamiento, evaluando y validando los resultados, lo que me permite almacenarlos en conjuntos de entrenamiento, validación y prueba, facilitando la comprensión, comparación de resultados y la realización de experimentos reproducibles, con la verificación de ser necesaria su gestión, implemento técnicas de validación cruzada, que puedan asegurar la generación del modelo con la cautela de no llegar al sobreajuste u overfitting. Para modelos complejos como mencioné anteriormente tales como datos no legibles o no estructurados me apoyo con el etiquetado para poder almacenarlos eficientemente.

Deep Learning

Utlizo como herramienta el procesamiento de lenguaje natural o NPL para elaborar prototipos que puedan ser sacados a producción. Para las tareas de preparación de datos me apoyo con las librerías Pandas y NumPy y para el pre-procesamiento dependerá de lo que se necesite analizar ya sea procesadores de textos o imágenes. Los frameworks que utilizo son Tensorflow y su API Keras. Para garantizar patrones realizo la validación cruzada, división en datos de prueba y entrenamiento, monitorizando, a través de curvas ROC, errores cuadráticos o matrices de confusión y precisión, según la necesidad.

Datos Estructurados

Ya sea que los datos provengan de repositorios centralizados o externos este tipo de datos los trabajo con RDD, a través de la distribución computacional, ya que me permiten trabajar de manera rápida y eficiente al poder escalar los repositorios en sus diferentes etapas para grandes capacidades de almacenamiento. Particularmente me baso en cuadernos Jupyter y los principales Kernels para ciencia y procesamiento de datos. Estos sistemas los trabajo con Spark para Scala o PySpark para Python, dejando los datos listos para trabajar con Apache Hadoop y su posterior conexión vía HDFS.

Data Cloud

La gestión cloud lo aporto de conocimientos directos con arquitectura Azure, lo que me permite gestionar suscripciones, controles de acceso, gobernanza y conectividad con máquinas virtuales, monitorizando tráfico, redes y almacenes. Mis conocimientos con Azure son fundamentales para soportar arquitecturas e infraestructuras en almacenes, al estar cubierta por las bases esenciales de un Arquitecto de Bases de Datos. La modularidad de las bases de datos con Azure poseen un gap de los módulos AZ-900, AZ-104, AZ-303 y AZ-304 bajo conocimientos sólidos, prácticos y con licencia para ser desplegado en desarrollo.

Business Intelligence

La creación de visualizaciones y análisis las realizo a través de expresiones de los dataflow y los soporto con herramientas de inteligencia de negocios. Participo en análisis complejos con DAX y sus funciones categóricas para medidas y columnas. El flujo de datos de esta herramienta gráfica, con el almacén lo gestiono con DirectQuery a través de conexión de importaciones robustas por lotes. La creación de estas conexiones con la arquitectura de Business Intelligence y PowerBI me van a permitir crear las dependencias para el tipo de análisis, su sincronización y orquestación desde las fuentes.

Me puedes escribir en:

*Requerido.

**Asegúrese de ingresar información válida. No será compartida.


Me puedes contactar en:

Número Móvil 📞

+34 641 314 232

Dirección Residencia 🏠

C/ Alta de Mar
Almuñecar, 18690

Dirección de e-mail ✉️

reduardoj@gmail.com

reduardoj@hotmail.com

Redes Sociales