Sobre nosotros
- Creamos valor a través de la transformación del negocio impulsada por IA, colaboramos con empresas lideres del sector retail y consumo masivo; tenemos presencia en EEUU, India y todo Latam, hemos crecido de forma sostenida año con año expandiendo los servicios a nivel global, por ello, buscamos para nuestras en México un Ingeniero Data Science para aplicación de servicios de modelado de datos.
¿Por qué nosotros?
- Somos una empresa centrada en las personas, buscamos que siempre exista un equilibrio entre lo personal y lo profesional, tendrás la oportunidad de:
- Trabajar con tecnologías sofisticadas y líderes para el desarrollo de algoritmos y modelos estadísticos.
- Aplicar con libertad tus conocimientos para proponer nuevas soluciones y servicios.
- Integración con equipos multiculturales en Latam, India y EEUU.
¿Qué podemos ofrecerte?
Desarrollamos un ambiente de trabajo sostenible, ágil, colaborativo y divertido, te ofrecemos crecimiento personal y desarrollo profesional real a mediano y largo plazo, nuestra oferta incluye:
- Ingreso de 70,000 a 80,000 pesos libres Prestaciones de Ley, 100% nominal y prestaciones superiores
- Horario de lunes a viernes 9:00 p.m. a 6:30 p.m.
- Zona de trabajo: Remoto
¿Qué buscamos?
- 8 años de experiencia como: Data Science tech lead, data Architect, data engineer, data science, científico de datos, analista de datos,
- Inglés Avanzado para sesiones de formación y de trabajo.
- Gestión avanzada en levantamiento de requerimientos con usuario final, adecuado manejo de relacionamiento con stakeholders en diversas unidades de negocio.
- 4 a 5 años de experiencia en diseño, arquitectura, implementación de Modelos ML o MLOps en proyectos de analítica, procesos de automatización y validación de ingestión de datos, flujos y reportes.
- 5 años de experiencia en desarrollo de modelos y algoritmos con Python y consumo de librerías como: NumPy, Pandas, Scikit Learn, TensorFlow, o PyTorch para desarrollo de algoritmos y modelos de machine learning (regresión, clasificación, clustering, Deep learning).
- 4 a 5 años en manejo de ambientes cloud AWS, Azure o GCP (creación de pipelines, datalakes, etc) consumo de servicios como BigQuery, BigTable, datproc, etc).
- 5 años en Análisis, explotación y representación de datos usando SQL o metabase, en su defecto herramientas como Polaris, pandas, Duckdb, Matplolib, Seaborn, Tableau, Power BI.
- Manejo de versionamiento de código con Git, Github y GitFlow.
- Muy deseable, conocimiento en DevOps, CI CD, contenedores, etc.
Apego a metodologías ágiles como Scrum Design, XP, etc