ID 1967 – Ssr. Data Engineer

Remoto

Requerimientos del puesto:
● Graduado, estudiante o persona con experiencia en carreras afines a informática, tecnologías de la información e ingeniería en sistemas.
● Conocimiento y experiencia en ANSI SQL. Trabajo con bases de datos relacionales. Familiaridad con tipos de datos no estructurados.
● Experiencia en la construcción y operacionalización de procesos de Extracción, transformación y carga de datos para datos estructurados y no estructurados (Jsons, Csv, etcétera)
● Conocimientos en procesos y transformaciones típicas que son necesarias realizarles a los datos crudos para convertirlas en información útil: data cleansing y data enrichment.
● Conocimiento de tecnologías de procesamiento distribuido a gran escala. Especialmente Apache Spark.
● Conocimientos en Git y Github.
● Conocimiento y utilización de procesos de integración de datos. Por ejemplo, Azure Data Factory, AWS Data Pipeline, SSIS, Pentaho Data Integration, Talend Data Integration.
● Experiencia y predisposición al armado de la documentación pertinente de los procesos: diagramas de flujo de las transformaciones, pipelines de datos y casos de uso.
● Buena capacidad comunicativa, especialmente de manera escrita. Esto quiere decir: brevedad, economía de lenguaje y precisión.
● Capacidad de trabajar de manera remota, asíncrona y autónoma.
● Capacidad de aprender de otros y realizar cambios respecto a sus comentarios.

Conocimientos extra valorados:
● Conocimiento en lenguaje de programación Scala. Si trabajas en Python también es útil.
● Conocimiento en buenas prácticas de desarrollo de software. No sólo conocimiento en el desarrollo de ETLs
● Conocimiento en Apache Hadoop.
● Conocimiento en entornos Cloud. Especialmente en Azure.
● Conocimientos en Azure Data Factory.

Funciones principales:
● Realizar tareas de procesamiento de datos a fuentes de datos semi estructuradas.
● Generar procesos de control del trackeo de la información que funciona como proceso generador de las fuentes de datos.
● Optimización del procesamiento de datos a través de mejores usos de los clusters en un entorno cloud.
● Analizar y resolver problemáticas asociadas a la calidad de los datos a través de la unificación de las fuentes de datos primarias.
● Integrar diferentes tipos de datos: Información de ítems, seller, categorías en una sola fuente de información consumible.
● Trabajar con grandes volúmenes y diversas fuentes de información.
● Operacionalización de los diferentes procesamientos a través de Azure Data Factory.


Postularme

    Todos los derechos reservados. Desarrollado por Socialbits.net

    CONEXIONHR – Todos los derechos reservados. Desarrollado por Socialbits.net