Desarrollo
Ubicación de KetteQ Empleo
Remoto

Científico de datos sénior

Acerca del puesto

ketteQ es una plataforma de planificación y automatización de la cadena de suministro proporcionada como una solución de Software como Servicio. A medida que seguimos creciendo y evolucionando, estamos buscando un Científico de Datos Senior altamente organizado y orientado al detalle para unirse a nuestro equipo y desempeñar un papel fundamental en el desarrollo de la mejor plataforma de planificación y automatización de la cadena de suministro. Este puesto incluye un paquete de remuneración muy atractivo y prestaciones por trabajar desde casa. Trabajarás con grandes marcas mundiales y con un equipo altamente experimentado. Si tienes mucha energía, motivación e iniciativa, esta puede ser una oportunidad fantástica para ti. Los candidatos deben reunir los siguientes requisitos:

Funciones y responsabilidades

  • Impulsar conjuntamente la hoja de ruta de las soluciones avanzadas de ciencia de datos; de forma práctica, predicando con el ejemplo con pruebas de concepto e implementaciones de referencia.
  • Dirigir los componentes de diseño y desarrollo del ecosistema de soluciones avanzadas de análisis de datos de ketteQ para resolver problemas empresariales complejos.
  • Desarrollar aplicaciones escalables de análisis avanzado de datos
  • Proporcionar un enfoque estratégico en las últimas y más avanzadas metodologías de ciencia de datos e IA/ML y sus aplicaciones a la industria de la cadena de suministro.
  • Recomendar procesos, servicios, software y otras herramientas para respaldar los objetivos empresariales relacionados con la ciencia de datos/AI/ML, así como las tecnologías de infraestructura pertinentes.

Requisitos

  • BS/MS/PhD en Business Analytics, Data Science,Mathematics/Statistics o un campo relacionado; Ingeniería Industrial, Cadena de Suministro, Investigación de Operaciones también serán aplicables con la experiencia adecuada.
  • Al menos 7 años de experiencia aplicando ciencias de datos avanzadas, técnicas de IA/ML a problemas del mundo real, cadena de suministro o aplicaciones relacionadas.
  • Capacidad para comprender las necesidades de la empresa y de la cadena de suministro y aprovecharlas para diseñar soluciones de producto eficaces que aporten valor a la empresa.
  • Conocimientos sólidos de matemáticas (estadística, álgebra, etc.)
  • Conocimiento de técnicas y conceptos estadísticos avanzados (regresión, propiedades de las distribuciones, pruebas estadísticas y uso adecuado, etc.) y experiencia con aplicaciones.
  • Conocimiento de diversas técnicas de aprendizaje automático (agrupación, aprendizaje de árboles de decisión, redes neuronales artificiales, etc.) y sus ventajas e inconvenientes en el mundo real.
  • Al menos 2 años de experiencia trabajando con algoritmos de previsión de series temporales. Proyectos finalizados sobre previsión de series temporales, más allá de algoritmos estadísticos como ARIMA.
  • Conocimiento profundo de los algoritmos clásicos de previsión estadística como ARIMA, ETS, etc., así como de algoritmos de nueva generación como Prophet.
  • Experiencia demostrada en el manejo de Predicción de Series Temporales utilizando algoritmos de Regresión estándar como Regresión Lineal, Árboles de Decisión Gradient Boosted, Random Forest, etc.
  • Sólidos conocimientos conceptuales de las técnicas de IA/ML y ganas de aprender y adoptar nuevos enfoques y metodologías.
  • Buen conocimiento práctico con Modelos de Secuencia en Aprendizaje Profundo,como LSTMs, Transformadores, etc. especialmente en el contexto de Predicción de Series Temporales.
  • Comprensión del ciclo de vida de desarrollo de software, incluida la captura de los requisitos del producto, la revisión de las especificaciones funcionales, el desarrollo de soluciones, el desarrollo de planes de prueba, las pruebas, la formación de los usuarios y la implantación.
  • Capacidad experta para escribir código robusto en Python. Se valorará la familiaridad con Scala, Java o C++. Se valorará positivamente el conocimiento de R.
  • Dominio de al menos un marco de ML como TensorFlow, Keras, PyTorch, etc.
  • Experiencia práctica con bases de datos relacionales (por ejemplo, PostgreSQL, MySQL) y herramientas de análisis de datos y BI.
  • Experiencia con herramientas de datos/computación distribuida: Map/Reduce,Hadoop, Hive, Spark, etc.
  • Experiencia en el uso de flujos de trabajo y políticas de lanzamiento y despliegue convencionales y en el trabajo en GitHub/Bitbucket.
  • Experiencia trabajando en entornos Linux con tecnologías de contenerización (Docker, Kubernetes, AWS Fargate, Argo) y los principales servicios en la nube(AWS, GCP, Azure).
  • Capacidad para manejar situaciones complejas con poca o ninguna orientación.
  • Exploración de datos y comunicación clara de las conclusiones a un público tanto técnico como no técnico.
  • Se valorará la experiencia en comercio minorista, bienes de consumo, comercio electrónico o cadena de suministro.