No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

$$$ Tiempo completo
Data Analyst – Proyecto de Migración Digital
  • BC Tecnología
  • Lima (Hybrid)
HTML5 Python Data Analysis SQL
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un Data Analyst para formar parte de un proyecto estratégico de Migración Digital enfocado en evolucionar el canal digital del cliente BFPE. Participarás en el desarrollo, documentación y mejora continua de funcionalidades para una nueva plataforma web, como parte de la migración desde Telegestor APK. El rol combina desarrollo, transformación de datos y optimización de procesos para entregar un canal digital robusto y escalable.
El proyecto implica trabajo conjunto con equipos técnicos y funcionales para asegurar requisitos, calidad y despliegues eficientes. Serás parte de un equipo ágil, con enfoque en innovación y mejora continua, contribuyendo a una migración exitosa que impacta directamente la operación digital.

Apply through Get on Board.

Funciones

  • Desarrollar nuevas funcionalidades para el canal digital utilizando Python y HTML5.
  • Participar en la transformación de datos y construcción de pipelines ETL.
  • Analizar, diseñar y documentar especificaciones técnicas y funcionales.
  • Implementar consultas y procesos de explotación de datos en SQL Server y BigQuery.
  • Gestionar control de versiones y despliegues con GitLab.
  • Colaborar con equipos técnicos y funcionales para asegurar el cumplimiento de los requisitos.
  • Participar en pruebas, validaciones y despliegue de mejoras.
  • Proponer mejoras que fortalezcan la plataforma digital.

Descripción

Buscamos un Data Analyst con 2 a 3 años de experiencia en roles similares, con capacidad para trabajar en un entorno regulado y centrado en datos. Requisitos técnicos demostrables: SQL Server, Python, BigQuery, ETLs, GitLab y HTML5. Se valorará experiencia en banca, finanzas o industrias altamente reguladas. El/la candidata ideal será analítico/a, orientado/a a la calidad de datos, con habilidades para documentar y comunicar hallazgos de manera clara, y capaz de colaborar eficazmente con equipos multifuncionales. Se ofrece una modalidad híbrida en Lima y la posibilidad de participar en un proyecto estratégico con impacto directo en el canal digital del cliente, dentro de un entorno de aprendizaje y desarrollo continuo.

Deseable

Experiencia previa en proyectos de migración de plataformas digitales y en entornos de alta seguridad de información. Conocimiento de herramientas de visualización (Power BI, Tableau) y metodologías ágiles. Experiencia en integración de datos entre sistemas legados y plataformas modernas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 2600 Tiempo completo
DBA Oracle
  • Coderslab.io
Python SQL Oracle Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is original from Get on Board.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).
Habilidades:
- Competencia avanzada en administración de bases de datos Oracle, incluyendo versiones recientes (Oracle 19c o superior).
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM (Automatic Storage Management), y Oracle Multitenant.
- Experiencia en Oracle Cloud Infrastructure (OCI) y otras nubes públicas, como Azure o AWS (deseable).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- Conocimientos en PLSQL y tunning a sentencias SQL

Condiciones

Disponibilidad: Inmediata.
Horario de Chile

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2400 Tiempo completo
Consultor Científico de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Data Analysis SQL

🚀 ¡Estamos buscando talento para el equipo Lab de Microsystem! ⚗️

Si te gustan los datos, la programación y los desafíos que realmente generan impacto, acá hay una oportunidad muy entretenida. Estamos desarrollando proyectos innovadores ligados a Machine Learning, ingeniería y ciencia de datos: desde modelos predictivos de pesca (sí, con datos reales y complejos 👀), hasta modelos bancarios inteligentes que anticipan comportamientos y mejoran decisiones de negocio.

Buscamos a alguien motivado, curioso y con ganas de aprender tecnologías de punta. Alguien que disfrute mezclar lo técnico con lo consultivo: entender al cliente, su contexto y transformar eso en modelos funcionales y útiles.

Trabajarás con un equipo joven, colaborativo y con experiencia 🤓, en un ambiente donde se prueba, se crea y se innova. Si te gusta programar, experimentar y resolver problemas reales, este es tu lugar 💪.

¿Te interesa o conoces a alguien? ¡Hablemos! 🚀

Apply directly from Get on Board.

Funciones del cargo

1. Levantamiento y entendimiento del negocio con el cliente

  • Participar en reuniones con clientes para comprender sus necesidades, procesos, problemas y expectativas.
  • Traducir requerimientos de negocio en objetivos analíticos y diseños de modelos.
  • Presentar hallazgos, resultados y recomendaciones de manera clara y comprensible.

2. Preparación, exploración y análisis de datos

  • Recopilar, limpiar y transformar datos provenientes de distintas fuentes.
  • Realizar análisis exploratorio (EDA) para descubrir patrones, anomalías y oportunidades de modelamiento.
  • Definir y construir pipelines de preparación de datos cuando sea necesario.

3. Construcción y entrenamiento de modelos predictivos

  • Diseñar, programar y entrenar modelos de Machine Learning (supervisados y no supervisados).
  • Seleccionar técnicas adecuadas según el problema: regresión, clasificación, series de tiempo, clustering, árboles, ensembles, etc.
  • Ajustar, validar y optimizar modelos para maximizar desempeño y robustez.

4. Implementación y despliegue de modelos

  • Implementar pipelines end-to-end: desde ingesta de datos hasta predicciones automatizadas.
  • Trabajar con herramientas y entornos de desarrollo modernos (Python, Jupyter, Git, APIs, etc.).
  • Colaborar con equipos Dev/Data Engineering para integrar los modelos en producción.

5. Documentación y comunicación

  • Documentar procesos, decisiones técnicas, métricas, versiones de modelos y flujos de trabajo.
  • Preparar presentaciones y reportes para explicar resultados a stakeholders técnicos y no técnicos.

6. Iteración, mejora continua y acompañamiento al cliente

  • Monitorear el rendimiento de los modelos y proponer mejoras.
  • Acompañar al cliente en el uso, interpretación y adopción del modelo.
  • Levantar nuevas oportunidades de mejora o proyectos relacionados.

7. Participación activa en el equipo Lab

  • Compartir aprendizajes, buenas prácticas y nuevos enfoques con el equipo.
  • Explorar tecnologías emergentes y sugerir innovaciones aplicables a los proyectos.

Requerimientos del cargo

Requisitos Técnicos (Hard Skills)

  • Formación en Ingeniería, Estadística, Matemáticas, Computación o carrera afín.
  • Experiencia comprobable en construcción de modelos predictivos (regresión, clasificación, series de tiempo, clustering, etc.).
  • Dominio de Python para ciencia de datos (pandas, scikit-learn, NumPy, matplotlib, etc.).
  • Conocimientos sólidos en limpieza, transformación y análisis exploratorio de datos (EDA).
  • Manejo de bases de datos y consultas SQL.
  • Conocimiento en APIs REST e integración de datos.
  • Capacidad para construir pipelines end-to-end de ML (ingesta, entrenamiento, evaluación, despliegue).
  • Manejo a nivel básico de herramientas analíticas como Power BI y/o Tableau para exploración y entendimiento de datos.
  • Deseable: experiencia en ML Ops, automatización, versionado de modelos o despliegue en la nube (AWS, Azure, etc.).

Requisitos Interpersonales (Soft Skills)

  • Habilidad para comunicarse claramente con clientes no técnicos.
  • Capacidad de levantar requerimientos, entender el contexto del negocio y traducirlo a problemas analíticos.
  • Buenas habilidades de presentación y storytelling con datos.
  • Proactividad, autonomía y ganas de aprender tecnologías nuevas.
  • Trabajo colaborativo en equipos multidisciplinarios.

Otros Deseables

  • Experiencia en consultoría o interacción directa con clientes.
  • Conocimiento en herramientas de visualización adicionales (Tableau, Looker, Power BI, etc.).
  • Inglés intermedio para lectura de documentación y soporte técnico.
  • Conocimiento de metodologías como CRISP-DM y otras a fines.
  • Conocimiento en otros lenguajes (TypeScript, JavaScript, etc.)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Education stipend Microsystem covers some educational expenses related to the position.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer GCP – Proyecto
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Git SQL
BC Tecnología es una consultora de TI con experiencia en gestionar portafolios, desarrollar proyectos y realizar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. En BC Tecnología promovemos soluciones a la medida y formamos equipos ángeles para infraestructuras TI, desarrollo de software y unidades de negocio. Nuestra operación se apoya en metodologías ágiles, enfoque en el cliente y desarrollo de productos. El proyecto actual se enfoca en diseñar, construir y optimizar pipelines de datos en GCP para clientes de alto nivel, garantizando disponibilidad y calidad de la información para analytics y reporting.

Find this vacancy on Get on Board.

Funciones

  • Construcción, mantenimiento y optimización de pipelines de datos en Google Cloud Platform (GCP).
  • Desarrollo y soporte de ETLs eficientes y escalables, con énfasis en rendimiento y confiabilidad.
  • Modelado de datos para analytics y reporting, asegurando estructuras que soporten reporting y dashboards.
  • Automatización de procesos y flujos de datos utilizando Airflow/Cloud Composer.
  • Colaboración con equipos de datos y negocio para garantizar calidad, disponibilidad y acceso a la información.
  • Implementación de buenas prácticas de versionado y control de cambios (Git, GitLab/Bitbucket/GitHub).

Requisitos y habilidades

• Mínimo 3 años de experiencia como Data Engineer o rol equivalente en proyectos de datos.
• Sólidos conocimientos de SQL y Python para construcción de transformaciones y consultas analíticas.
• Experiencia con servicios de GCP (BigQuery, Cloud Functions, Cloud Composer/Airflow, Cloud Storage).
• Capacidad para diseñar y modelar datos en entornos GCP con foco en analítica y reporting.
• Experiencia con herramientas de control de versiones (GitLab, Bitbucket o GitHub).
• Ideal: experiencia con DBT y prácticas de ciencia de datos en la nube.
• Habilidad para trabajar en entornos colaborativos y adaptarse a cambios en proyectos y prioridades.

Requisitos deseables

• Conocimientos en orquestación de datos y pipelines complejos; experiencia con datos en entornos regulados y de alto rendimiento.
• Familiaridad con metodologías ágiles y cultura DevOps aplicada a data engineering.
• Certificaciones de GCP o fundamentos de ciencia de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data BigQuery
BC Tecnología es una consultora de TI especializada en administrar portafolios, desarrollar proyectos, realizar outsourcing y seleccionar profesionales para clientes en servicios financieros, seguros, retail y gobierno. Diseñamos equipos de trabajo ágiles para Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio, con un enfoque en cliente, metodologías ágiles, cambio organizacional y desarrollo de productos. En este rol de Data Engineer, formarás parte de proyectos innovadores con clientes de alto nivel, contribuyendo al diseño, implementación y mejora de pipelines de datos que alimentan plataformas analíticas y la toma de decisiones del negocio.

Opportunity published on Get on Board.

Responsabilidades

  • Diseñar, implementar y mantener procesos ETL/ELT para la carga de datos desde APIs hacia BigQuery.
  • Asegurar la escalabilidad, eficiencia y calidad de los pipelines de datos.
  • Aplicar buenas prácticas de versionamiento, documentación y pruebas en el código.
  • Colaborar con equipos internos para la exportación y consumo de datos desde Databricks.
  • Monitorear la calidad e integridad de los datos en los distintos entornos.
  • (Deseable) Desarrollar y mantener reportes Power BI conectados a Databricks.

Perfil y habilidades

Requisitos técnicos:
  • Experiencia mínima de 1 año en roles similares.
  • Experiencia diseñando, implementando y manteniendo procesos ETL/ELT para la carga de datos desde APIs hacia BigQuery.
  • Conocimiento intermedio en BigQuery y SQL.
  • Experiencia en Python, orientado a procesos de datos.
  • (Deseable) Experiencia en integración con APIs y uso de librerías como requests.
  • (Deseable) Conocimientos en herramientas de visualización, idealmente Power BI.
  • (Deseable) Experiencia en entornos cloud y uso de Databricks.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Analista de Datos / Business Intelligence
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Data Analysis Excel
En BC Tecnología somos una consultora de TI que acompaña a clientes de sectores financieros, retail, tecnológico y público. Buscamos un/a Analista de Datos / Business Intelligence para transformar datos en insights que orienten decisiones estratégicas. Trabajarás en proyectos de alto impacto dentro de equipos interdisciplinarios, implementando soluciones de analítica y BI que faciliten la toma de decisiones en clientes de alto nivel. Formarás parte de una organización con enfoque en metodologías ágiles, formación de equipos y desarrollo de productos, con un portfolio de servicios que incluye consultoría, outsourcing y desarrollo de proyectos.

Applications: getonbrd.com.

Principales Responsabilidades

  • Transformar datos en información clara y accionable mediante análisis estadístico, modelado y visualización.
  • Recopilar, analizar y transformar datos de distintas fuentes para generar insights de negocio.
  • Diseñar y desarrollar reportes, dashboards e indicadores clave (KPIs) en Power BI u otras herramientas de visualización.
  • Aplicar técnicas de análisis estadístico y exploración de datos para detectar tendencias, patrones y oportunidades de mejora.
  • Colaborar con equipos de negocio, BI y tecnología para definir métricas relevantes.
  • Asegurar la calidad, integridad y consistencia de los datos; documentar procesos y estructuras de datos.
  • Mantenerse actualizado/a en herramientas de analítica, visualización y ciencia de datos; cumplir con políticas de seguridad y cumplimiento.

Requisitos y Perfil

Formación: Ingeniería, Estadística, Economía, Ciencia de Datos, Administración u afines. Experiencia: mínimo 2 años en roles de Análisis de Datos, Inteligencia de Negocio o Control de Gestión.
Conocimientos Técnicos clave:
  • Modelado de datos y definición de KPIs.
  • Power BI (modelado, DAX, visualizaciones).
  • SQL (consultas y optimización).
  • Python y Power Automate.
  • Excel avanzado.
  • Conocimientos en estadística descriptiva e inferencial aplicada a negocio.
  • Experiencia en limpieza y transformación de datos.
Competencias blandas: pensamiento analítico, orientación a resultados, comunicación efectiva y capacidad para trabajar en equipos multidisciplinarios en entornos ágiles.

Deseables

Experiencia en proyectos de BI en el sector financiero o público; conocimiento de herramientas de visualización adicionales; experiencia en automatización de procesos y manejo de grandes volúmenes de datos; habilidad para traducir requerimientos de negocio en soluciones técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 2500 Tiempo completo
Ingeniero/a de Continuidad Operacional 7x7
  • Contac Ingenieros
  • Santiago (In-office)
C Python Data Analysis SQL

Contac Ingenieros es una empresa especializada en proveer soluciones integrales para la industria minera, enfocándose en la optimización y modernización de procesos mediante tecnología y conocimiento especializado. El proyecto se centra en asegurar la continuidad operacional a través de soluciones digitales, y mejora continua, con un enfoque en disponibilidad, confiabilidad y oportunidad de los datos que respaldan la toma de decisiones en procesos mina-planta. El equipo trabaja en un entorno de analítica avanzada, integrando herramientas de datos y plataformas para garantizar la continuidad de las operaciones mineras y la entrega de reportes ejecutivos confiables.

Apply to this job without intermediaries on Get on Board.

Principales Funciones

  • Revisar disponibilidad de aplicativos y la correcta ejecución de servicios y procesos de ingestas asociadas a iniciativas de analítica avanzada.
  • Generar hot fixes necesarios para garantizar la continuidad operacional de las plataformas de analítica avanzada.
  • Proponer y ejecutar mejoras de procesos para optimizar tareas que se vean impactadas.
  • Revisar y medir el impacto de ajustes de código y resolver de acuerdo a la criticidad de cada error.
  • Asegurar la integridad de las ingestas de datos para reportes y rutinas ejecutivas.
  • Verificar la ejecución y envío correcto de información de reportes ejecutivos, cotejando la información con parámetros operacionales.
  • Ejecutar procesos de forma manual cuando sea necesario.
  • Brindar soporte operacional presencial para necesidades operativas.

Requisitos

  • Título en Ingeniería en Informática, Civil o carrera afín.
  • Conocimientos en análisis de datos, reportabilidad y KPIs operacionales.
  • Manejo de herramientas como SQL, PI System, Power BI, Python y la suite Microsoft.
  • Conocimiento de procesos mineros.
  • Capacidad de aprendizaje, proactividad y orientación al cliente.
  • Disponibilidad para trabajar en Jornada 7X7 con presencialidad en la comuna de Las Condes.

Deseables

Experiencia previa en continuidad operacional o en roles de analítica de datos en minería. Conocimientos en C#, ETL, y manejo de entornos de nube. Habilidades de comunicación efectiva y trabajo en equipo, con enfoque en resolución de problemas y entrega de valor a la operación minera.

Beneficios

  • Seguro Complementario de Salud
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3200 Tiempo completo
Senior Data Consultant
  • Artefact LatAm
Python Data Science English Data Visualization

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

This job is published by getonbrd.com.

Tus responsabilidades serán:

  • Realizar investigaciones exhaustivas y análisis de información relevante para el proyecto.
  • Desarrollar diagnósticos y proponer soluciones adaptadas a las necesidades específicas de cada cliente, utilizando un enfoque analítico y estratégico.
  • Crear entregables innovadores y orientados a resultados, con un enfoque en la transformación digital.
  • Aplicar rápidamente el aprendizaje adquirido de diversas industrias y herramientas para abordar los desafíos de cada cliente.
  • Presentar de manera efectiva los hallazgos y resultados del proyecto, adaptándose a las necesidades de los stakeholders del cliente.
  • Contribuir a la elaboración de propuestas para potenciales clientes, mediante un análisis detallado de la industria y la identificación de soluciones adecuadas.
  • Construir y mantener relaciones sólidas con los clientes, actuando como un socio estratégico en su camino hacia el éxito.
  • Apoyar al equipo en la planificación estratégica y en la transferencia de conocimientos y mejores prácticas.

Los requisitos del cargo son:

  • Titulación en Ingeniería Civil Industrial, Ingeniería Industrial, Economía o áreas afines.
  • Experiencia laboral mínima de 4 a 6 años en consultoría o roles relacionados.
  • Dominio avanzado de herramientas de Office y/o Google.
  • Pensamiento Analítico: Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.
  • Conocimiento profundo de diversas herramientas y soluciones digitales.
  • Inglés fluido para comunicarse oralmente con los clientes.

Algunos deseables no excluyentes:

  • Deseable experiencia en programación en Python y uso de herramientas de visualización como PowerBI o Tableau.
  • Conocimiento o nociones de Data Science.

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Outdoors The premises have outdoor spaces such as parks or terraces.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 5000 Tiempo completo
Senior Data Engineer – AI Data Infrastructure & Automation
  • Common Forge Ventures
Python SQL Cloud Computing Automation

Common Forge Ventures is seeking a Senior Data Engineer to join one of our venture studio startups, a high-growth company building the world’s most robust, contextualized buyer intelligence platform for investment banks, private equity, and strategic acquirers. You will own and evolve the data infrastructure that ingests, cleanses, and enriches large-scale data from APIs, web scraping agents, LLM outputs, and internal datasets. This role focuses on scalable pipelines, data governance, AI agent orchestration, and seamless integration with product teams to deliver reliable data APIs and feeds that power advanced buyer insights.

Apply to this job from Get on Board.

Key Responsibilities

  • Data Architecture & Pipelines: Design and optimize large-scale ETL/ELT pipelines across structured and semi-structured data sources. Implement data validation, normalization, and reconciliation frameworks to ensure data integrity. Automate ingestion and transformation processes using orchestration tools.
  • AI Agent Orchestration & Integration: Develop, train, and refine LLM-based data agents to collect, clean, update, and infer new attributes for buyer profiles. Build robust prompting architectures, JSON schema validation, and feedback loops to ensure high-quality structured outputs. Collaborate to optimize agent reasoning, reduce hallucinations, and integrate embeddings for context-aware inference.
  • Data Governance & Quality: Define standards for data versioning, lineage, and observability. Build quality-control layers for agent-generated data, including confidence scoring, human-in-the-loop validation, and automated correction mechanisms. Ensure compliance with data governance, privacy, and security requirements.
  • Collaboration & Product Integration: Work cross-functionally with AI, product, and engineering teams to deliver data APIs and feeds. Partner with leadership to prioritize data reliability, scalability, and innovation. Lead ongoing improvements to the data infrastructure roadmap.

Required Skills & Experience

5+ years in data engineering (or similar) with strong experience in Python (Pydantic a bonus), SQL, and orchestration frameworks. Proficiency with cloud data stacks (including GCP). Demonstrated ability to design or integrate AI/LLM agents for data collection, enrichment, or inference tasks. Track record of building structured data pipelines from unstructured sources, with error recovery, validation, and monitoring. Deep understanding of prompt engineering, function calling, embedding-based retrieval, and data labeling workflows. Excellent communication, documentation, and cross-team collaboration skills. You care deeply about your craft and maintain clean, scalable projects even when not directly supervised.

Desirable Skills & Experience

Familiarity with LangChain or other agent frameworks (e.g., LlamaIndex, Haystack), tool-calling, and similar agent orchestration technologies. Experience with data quality scoring, schema evolution, and metadata management (dbt, Great Expectations, etc.). Background in investment data, market intelligence, or deal-sourcing platforms. Experience leading small data or engineering teams.

Benefits & Perks

From Common Forge Enterprises, you will enjoy a remote working environment with flexible hours, enabling you to balance personal and professional commitments effectively. We prioritize opportunities for professional development and growth, fostering an inclusive and collaborative team culture. Join us to access the latest technologies and tools as we work toward impactful solutions together! 🚀

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3500 - 4300 Tiempo completo
Data Scientist ML Engineer
  • Pulsar Technologies
Python Analytics DevOps Continuous Deployment
Project and Role
 The role involves developing, deploying, and maintaining ML models on cloud platforms using Databricks, MLflow, and Azure DevOps. The goal is to build reproducible, monitored, and well-governed analytics solutions that meet the client’s MLOps best practices. The main focus is automating the ML lifecycle—from data preparation and feature engineering to training, registration, deployment, and monitoring in production. Experience designing scalable, resilient, and maintainable solutions aligned with business goals and performance metrics is highly valued.

Applications at getonbrd.com.

Description

As a Data Scientist - ML Engineer, you will be responsible for designing and maintaining ML models in production, ensuring quality and compliance with MLOps practices. 
  • Design, train, and evaluate supervised and unsupervised models, with an emphasis on reproducibility and traceability.
  • Develop data and feature pipelines, including data cleaning, transformation, and quality validation.
  • Manage the model lifecycle using MLflow: tracking, registration, and versioning of models and metrics.
  • Work with Databricks for analytics and ML, optimizing notebooks and shared notebook workflows.
  • Oversee deployments and monitoring in Azure DevOps, applying Gitflow practices, CI/CD, and version control.
  • Define and follow coding standards (PEP8), implement model and pipeline testing, and manage environments (dev, prod).
  • Set up performance metrics, anomaly detection, and alerts for models in production.
  • Collaborate with data engineers, tech leads, and other stakeholders to align solutions with business objectives.
  • You are expected to demonstrate teamwork, proactivity in problem-solving, and commitment to quality and continuous improvement.

Requirements

We are looking for a Data Scientist with strong experience in Machine Learning Engineering.
The candidate will be responsible for designing, developing, and maintaining advanced analytics models. They will ensure quality and compliance with the client’s MLOps best practices by implementing scalable, reliable, and reproducible ML solutions on cloud platforms. Experience in automating the ML lifecycle and continuously improving model performance will be highly valued. 
Requirements
  • Education: Engineering, Computer Science, Mathematics, Statistics, or a related field.
  • Experience: Minimum of 3 years applying ML in production environments.
  • Programming: Python (PEP8, Pylint, Black) and adherence to clean coding standards.
  • Modeling: Design and training of supervised and unsupervised models.
  • MLOps: Data preparation, feature engineering, training, registration, deployment, and monitoring.
  • Tools: Databricks for analytics and ML; MLflow for model lifecycle management.
  • DevOps: Azure DevOps (Gitflow, CI/CD, version control).
  • Best Practices: Model and pipeline testing, environment management (dev, prod).
  • Performance: Ability to configure and track metrics (MAE, RMSE, F1, AUC-ROC), anomaly detection, and production alerts.
  • Collaboration: Strong communication skills to work with multidisciplinary teams and convey results to both technical and non-technical stakeholders.

Desirable skills

  • Knowledge of analytical project frameworks (e.g., Databricks Asset Bundles), advanced cloud architecture, and scalable ML solution design
  • Experience with Lakeview or other tools for interactive visualization and monitoring
  • Proven experience implementing end-to-end automated ML pipelines
  • Ability to manage user feedback to continuously improve models.

Conditions

  • 100% remote
  • Spanish language, professional proficiency is required
  • Chile-based is preferred
  • Must be compatible with Chilean timezone

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2000 Tiempo completo
Analytics Engineer
  • Artefact LatAm
Python Analytics MySQL SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply to this job opportunity at getonbrd.com.

Tus responsabilidades serán:

  • Recolectar y analizar datos de diversas fuentes para identificar patrones y tendencias. Extraer insights significativos para comprender el rendimiento presente y futuro del negocio.
  • Crear modelos de datos adaptados a distintos proyectos y sectores.
  • Crear y optimizar informes, paneles y cuadros de mando para una presentación efectiva de la información, utilizando herramientas de BI como Tableau, Power BI o QlikView.
  • Identificar oportunidades de mejora de procesos mediante análisis de datos.
  • Mantener y actualizar bases de datos para garantizar su integridad y calidad.
  • Brindar formación y soporte al equipo en el uso de herramientas de Business Intelligence. Colaborar con equipos diversos para crear soluciones integrales. Entender las necesidades del cliente y proponer mejoras y soluciones proactivas.
  • Monitorear modelos de data science y machine learning. Mantener la calidad de datos en flujos de información. Gestionar la seguridad y la escalabilidad de entornos cloud de BI.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, o carrera afín
  • 1 a 2 años de experiencia laboral en:
    • Proyectos BI
    • Herramientas de visualización como PowerBI, Tableau, QikView u otros
    • Soluciones de BI en entornos cloud (ejemplo, Azure y Power BI Service)
    • Fuentes de datos (SQL Server, MySQL, API, Data Lake, etc.)
    • Desarrollo de queries en SQL
    • Desarrollo de modelos de datos para usos analíticos y programación de ETLs
  • Inglés profesional

Algunos deseables no excluyentes:

  • Conocimiento de Python o R
  • Manejo de Big Data en miras de establecer reportería

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1900 - 2500 Tiempo completo
Data Engineer (Azure / AWS)
  • Devups
Python SQL Virtualization Amazon Web Services

En Devups, ofrecemos un servicio de staff augmentation que permite incorporar desarrolladores y técnicos a tu empresa sin gestionar reclutamiento, contratación ni costes asociados. Nuestro enfoque flexible facilita añadir, intercambiar o reducir recursos de desarrollo de forma rápida, manteniendo la responsabilidad y reduciendo la fricción operativa. Trabajamos para que nuestros clientes escalen sus capacidades tecnológicas con rapidez y sin la carga de una estructura interna permanente.

Como parte de nuestro equipo, el proyecto de Data Engineering se centrará en diseñar soluciones robustas y escalables para flujos de datos en la nube, colaborando con analítica y ciencia de datos para decisiones basadas en datos de calidad. Buscamos un perfil que contribuya a la modernización de pipelines, data lakes y data warehouses, aplicando buenas prácticas de seguridad, gobernanza y costo-eficiencia para entornos Azure y AWS.

Find this vacancy on Get on Board.

Funciones

  • Diseñar y desarrollar pipelines ETL/ELT en entornos cloud (Azure Data Factory, Databricks, Synapse; AWS Glue, Lambda, S3).
  • Integrar, transformar y limpiar grandes volúmenes de datos provenientes de múltiples fuentes para su consumo en analítica y ML.
  • Administrar y optimizar data lakes y data warehouses (Snowflake, Redshift, Synapse, BigQuery según el stack del cliente).
  • Implementar versionado, gobernanza, seguridad y monitoreo continuo de datos; gestionar costos y performance tuning en nube.
  • Colaborar estrechamente con equipos de analítica, ciencia de datos y desarrollo para entregar soluciones centradas en negocio.
  • Participar en prácticas de CI/CD y, si aplica, contenerización con Docker y flujos de orquestación (Airflow, Prefect o similar).

Descripción

Buscamos un Data Engineer con experiencia en el diseño, construcción y optimización de pipelines de datos en la nube ( Azure o AWS ). El objetivo es asegurar el flujo confiable, escalable y seguro de datos desde múltiples fuentes hacia sistemas analíticos o de machine learning, soportando decisiones de negocio basadas en información de calidad. Requisitos clave: +3 años de experiencia en Data Engineering, experiencia en Azure (Data Factory, Databricks, Synapse) o AWS (Glue, Redshift, Lambda, S3), sólidos conocimientos en Python y SQL, modelado de datos, pipelines, APIs y orquestación (Airflow, Prefect o similar), inglés técnico. Se valoran Docker, CI/CD, herramientas de MLOps y certificaciones en Azure o AWS. Ofrecemos un proyecto desafiante con tecnologías cloud y trabajo remoto con horarios flexibles, en un equipo técnico de alto nivel.

Desirable

Experiencia adicional en seguridad de datos, costos y performance tuning en cloud. Conocimientos de seguridad de datos, cumplimiento de normativas y experiencia con herramientas de monitoreo y observabilidad. Capacidad para trabajar de forma autónoma, con buen manejo de prioridades y comunicación clara en entornos multiculturales. Preferible experiencia trabajando en proyectos con impacto directo en negocio y con clientes o equipos remotos.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $900 - 1500 Tiempo completo
Data Engineer BI Developer
  • Guinea Mobile SAC (Cuy Móvil)
UX Python PostgreSQL SQL

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer - BI Developer para conformar el equipo de TEC.

Originally published on getonbrd.com.

Funciones del cargo

  • Modelar capa dimensional (hechos/dimensiones), métricas consistentes y semantic layer en Looker.
  • Construir dashboards de impacto con performance (PDTs/materializaciones, BI Engine, caching).
  • Definir y versionar KPIs con negocio; documentar fuentes y criterios de cálculo.
  • Establecer RLS/CLS y gobernanza de acceso por dominio/rol.
  • Diseñar flujo de publicación (staging → prod) con validaciones de frescura/completitud.
  • Impulsar self-service analytics (plantillas, guías, catálogo) y soporte a stakeholders.

Requerimientos del cargo

Procesamiento de Datos

  • Núcleo común (GCP): batch/stream en Dataflow (Apache Beam), BigQuery Streaming, particionamiento, ventanas y backfills.
  • Infra/DataOps:Pub/Sub, Dataflow o Dataproc (Spark), orquestación con Cloud Composer.
  • BI: preparación de datasets analíticos en BigQuery; agregaciones, métricas y SCD con dbt.

Bases de Datos y Almacenamiento

  • Núcleo común:BigQuery como DWH; Cloud Storage (GCS) para data lake; Cloud SQL (PostgreSQL) cuando aplique.
  • Infra/DataOps: diseño de particiones/clustering, tablas externas en GCS, Bigtable (plus) para time-series.
  • BI: modelado dimensional (estrella/copo), vistas materializadas y semantic layer para Looker.

ETL/ELT

  • Núcleo común:dbt (BigQuery) con modelos, tests y documentación; Cloud Composer para dependencias.
  • Infra/DataOps: pipelines con Dataflow, backfills parametrizados, Great Expectations (o similar).
  • BI: transformación orientada a métricas/negocio con dbt; data contracts básicos.

Programación

  • Núcleo común:Python para datos (pandas/pyarrow), CLIs y testing.
  • Infra/DataOps: libs internas, jobs contenedorizados (Docker), rendimiento y paralelismo en Beam/Spark.
  • BI: SQL productiva, macros dbt, cálculos de métricas y validaciones.

Cloud Computing

  • Núcleo común:IAM, service accounts, costos en BigQuery; Cloud Build para CI.
  • Infra/DataOps:Terraform (IaC), Cloud Monitoring/Logging, lineage/catálogo con Dataplex/Data Catalog.
  • BI: Looker/Looker Studio, gobernanza de datasets y RLS/CLS sobre BigQuery.

Calidad y Seguridad de Datos

  • Núcleo común: validación, profiling y documentación.
  • Infra/DataOps: alertas SLO/SLA, detección de drift/duplicados; DLP, KMS, VPC-SC (plus).
  • BI: definiciones únicas de métricas, control de acceso y data freshness antes de publicar.

Optimización de Consultas y Modelado

  • Núcleo común: tuning de consultas y costos en BigQuery.
  • Infra/DataOps: particionamiento/clustering, Reservations/slots, Storage API.
  • BI: diseño de hechos/dimensiones (grain correcto) y BI Engine (plus).

Perfil del colaborador

  • Criterio de negocio: entiende preguntas y las traduce en métricas/KPIs.
  • Storytelling con datos: claridad visual, UX de dashboard y foco en decisiones.
  • Disciplina semántica: métricas únicas, definiciones versionadas y documentación.
  • Excelencia en SQL/LookML: modelos limpios, reutilizables y testeados.
  • Partner del negocio: gestiona prioridades, feedback y adopción de tableros.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Tableau Developer (Data Visualization)
  • Improving South America
SQL Business Intelligence Big Data BigQuery

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

This job is original from Get on Board.

Funciones del cargo

En Improving South America buscamos un(a) Tableau Developer con experiencia en entornos cloud, orientado(a) a transformar datos en visualizaciones efectivas y accionables. Será responsable de diseñar, desarrollar y mantener dashboards en Tableau conectados a fuentes de datos en la nube, asegurando que la información sea precisa, eficiente y útil para la toma de decisiones.

Funciones principales:

  • Diseñar y desarrollar dashboards y reportes interactivos en Tableau Desktop / Tableau Cloud / Tableau Server.
  • Conectar Tableau a fuentes de datos en plataformas cloud (como Snowflake, BigQuery, Redshift o Azure Data Lake).
  • Traducir requerimientos del negocio en soluciones visuales claras, escalables y de alto rendimiento.
  • Optimizar consultas y estructuras de datos para mejorar la performance de los dashboards.
  • Garantizar la calidad, consistencia y seguridad de los datos visualizados.
  • Colaborar con equipos de datos y negocio para definir KPIs, modelos de información y mejores prácticas de visualización.

Requerimientos del cargo

  • Experiencia: 3 a 5 años en desarrollo de dashboards o soluciones de visualización de datos.
  • Nivel de inglés Intermedio/Avanzado o Avanzado.
  • Dominio avanzado de Tableau (Tableau Desktop, Tableau Server y/o Tableau Cloud).
  • Experiencia trabajando con fuentes de datos en la nube (Snowflake, BigQuery, Redshift, Azure SQL, etc.).
  • SQL intermedio a avanzado: capacidad para escribir, entender y optimizar consultas.
  • Sólidos conocimientos en modelado de datos y estructuras relacionales.
  • Experiencia interpretando requerimientos de negocio y traduciéndolos en visualizaciones efectivas.

Requerimientos deseables

  • Experiencia con Python o R para análisis o automatización.
  • Conocimiento de ETL / ELT o herramientas de integración de datos (dbt, Airflow, Talend, etc.).

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

VER TRABAJO POSTULAR VÍA WEB
Gross salary $4000 - 4500 Tiempo completo
Data Engineer Senior
  • Improving South America
Python Agile ETL English

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

This posting is original from the Get on Board platform.

Funciones del cargo

  • Diseñar, desarrollar y mantener ETLs y pipelines de datos eficientes y escalables.
  • Implementar y automatizar procesos de ingesta y transformación de datos con Airflow.
  • Realizar debugging, validaciones y optimización de consultas en Snowflake.
  • Colaborar con equipos de datos y negocio para garantizar la calidad y disponibilidad de la información.
  • Implementar buenas prácticas de versionado, monitoreo y documentación de procesos.
  • Dar soporte a incidentes relacionados con cargas de datos y proponer mejoras continuas.

Requerimientos del cargo

Experiencia comprobable en Python y Airflow para la orquestación de pipelines.

Conocimientos sólidos en Snowflake (validación, monitoreo y debugging).

Experiencia con Snowpipe será considerada un plus importante.

Familiaridad con metodologías ágiles y trabajo en entornos colaborativos.

Habilidades analíticas y orientación a la resolución de problemas.

Inglés intermedio-avanzado o avanzado

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2000 Tiempo completo
Data Scientist
  • Artefact LatAm
Python Analytics Git SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply to this posting directly on Get on Board.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $4850 - 7000 Tiempo completo
Senior Database Engineer/architect
  • Krunchbox
Java Python Analytics SQL

Krunchbox is transforming retail analytics with our next-generation platform (Krunchbox 2.0). We are migrating from 800 hardcoded ETLs to a modern, real-time analytics architecture powered by ClickHouse. This greenfield initiative aims to architect the analytical backbone for 100+ enterprise clients while maintaining and optimizing our existing SQL Server infrastructure during the transition. The Senior Database Engineer/Architect will lead the database transformation and operations across both legacy and modern systems, owning the analytical data layer, and delivering a scalable, multi-tenant ClickHouse architecture alongside ongoing SQL Server maintenance.

© Get on Board. All rights reserved.

Key Responsibilities

  • ClickHouse Implementation (New Architecture): take over from initial consulting work to build production ClickHouse system; design and implement multi-tenant architecture with partition isolation; migrate from SQL Server to ClickHouse optimizing for columnar storage; create materialized views for KPI calculations and dashboards; implement data retention policies and TTL strategies; optimize query performance for complex analytical workloads; design backup, recovery, and high-availability strategies.
  • SQL Server Management (Legacy Systems): maintain and optimize existing SQL Server infrastructure during transition; lead ETL modernization from 800 hardcoded processes to automated pipelines; perform database performance tuning and troubleshooting; manage legacy architecture decisions and technical debt; ensure data integrity and availability during migration; optimize existing queries and stored procedures.
  • Leadership & Architecture: provide database leadership across legacy and modern platforms; mentor on SQL and ClickHouse best practices; design migration strategies minimizing downtime and risk; collaborate with development teams on data architecture decisions; create documentation and best practices for a hybrid database environment; lead knowledge transfer and retention efforts during transition.
  • Collaboration & Delivery: work closely with existing team members to ensure continuity and minimize disruption; partner with Event Hubs team for real-time data ingestion; contribute to roadmap and architecture decisions that support scalable analytics for 100M+ rows daily across tenants.

What you’ll bring

Required Qualifications

  • ClickHouse Expertise: 3+ years of production ClickHouse experience; strong background with large-scale migrations from relational to columnar databases; deep understanding of ClickHouse internals (MergeTree engines, partitioning, sharding); expertise in materialized views, projections, and aggregation optimizations; experience with ClickHouse Cloud or managing ClickHouse clusters.
  • SQL Server & Traditional DB Skills: 5+ years of SQL Server production experience in enterprise environments; expert-level SQL programming and query optimization; experience with ETL pipeline design and optimization; database administration including backup, recovery, and performance tuning; experience leading migrations and modernization projects.
  • General Qualifications: proficiency in SQL and ClickHouse-specific extensions; experience with multi-tenant data architectures; strong problem-solving capabilities for complex data challenges; excellent cross-team communication.

Preferred Qualifications

  • Experience with Azure Event Hubs or Kafka integration; knowledge of CDC patterns and real-time data synchronization; retail or e-commerce analytics domain experience; experience with time-series data and IoT workloads; contributions to ClickHouse community or open source; experience with Azure SQL Database and cloud migrations; familiarity with Python/FastAPI for database integration; knowledge of data warehousing and OLAP concepts.

Desirable but not required

Desirable but not required skills:

  • Hands-on experience in modern data platforms and cloud-native architectures; prior leadership role in data platform transformations; experience with multi-region deployments and governance; ability to translate business requirements into scalable data models; passion for scalable performance optimization and data quality.

Benefits

  • Competitive compensation package.
  • Local health coverage (if required)
  • Opportunity to scale and lead a global SaaS platform that solves real-world customer challenges.
  • A direct, impactful role in shaping the future of AI-powered supplier-retailer collaboration.

Fully remote You can work from anywhere in the world.
Health coverage Krunchbox pays or copays health insurance for employees.
Computer provided Krunchbox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Krunchbox gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2300 - 3000 Tiempo completo
Data Engineer
  • Coderslab.io
Python SQL Artificial Intelligence Machine Learning

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DATA ENGINEERpara sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Find this vacancy on Get on Board.

Funciones del cargo

  • Desarrollo de ingestas de Datos a GCP
  • Diseñar y construir pipelines de datos robustos para procesos de ingesta, transformación y carga (ETL/ELT).
  • Aplicar buenas prácticas en el manejo de datos: seguridad, gobernanza y cumplimiento.
  • Trabajar con sistemas de procesamiento distribuido para manejar grandes volúmenes de datos
  • Colaborar con equipos interdisciplinarios para impulsar decisiones basadas en datos.
  • Implementar soluciones escalables y eficientes utilizando herramientas de Google Cloud Platform (GCP).

Requerimientos del cargo

- Dominio del lenguaje de programación Python y Lenguaje de Consulta Estructurado (SQL).
- Experiencia trabajando con plataformas de datos en la nube como Snowflake o tecnologías similares.
- Conocimiento de los pipelines de aprendizaje automático y capacidad para apoyar el desarrollo de modelos utilizando herramientas como Amazon SageMaker.
- Familiaridad con procesos de integración de datos como Extraer-Transformar-Cargar (ETL) o Extraer-Cargar-Transformar (ELT).

Condiciones

Nivel de Ingles : Avanzado

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero de Datos para Cloud Azure
  • Coderslab.io
Python SQL NoSQL Azure

CodersLab es una empresa dedicada al desarrollo de soluciones dentro del rubro IT y actualmente nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Ingeniero de Datos para Cloud Azure para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply without intermediaries through Get on Board.

Funciones del cargo

i. Crear productos de datos que ayuden al negocio a lograr sus objetivos con fines analíticos.

ii. Diseñar, diseñar, construir y mantener soluciones de canalización de datos (Data Pipelines) / ETLs batch o streaming.

iii. Construir código para ingestar y actualizar grandes conjuntos de datos en bases de datos relacionales y no relacionales e incluso data No Estructurada.

iv. Aplicar buenas prácticas de Azure DevOps para facilitar el despliegue continuo de nuevas versiones de las canalizaciones y soluciones de datos a través de Pull-Request.

v. Desarrollar Modelos de Datos que permitan gestionar los datos a escala, de manera óptima de cara a grandes volúmenes de datos (Modelo de Datos Data Vault), así como, Modelos de Datos Optimizados para consumos (Modelos de Datos Estrella y Copo de Nieve).

vi. Desarrollar Productos de Datos bajo la Arquitectura Lakehouse y aplicando buenas prácticas de Data Mesh.

vii. Trabajar con las áreas de negocios para comprender los objetivos, recopilar los requisitos iniciales para desarrollar y recomendar soluciones adecuadas.

viii. Participar en la planificación y ejecución de proyectos de ingeniería de datos, coordinando actividades y asegurando el cumplimiento de los plazos.

ix. Colaborar con los científicos de datos para comprender los requisitos específicos de datos necesarios para modelos de inteligencia artificial (IA) y aprendizaje automático (ML).

Requerimientos del cargo

i. Preferente Microsoft Certified: Azure Data Engineer Associate

ii. Preferente Databricks Certified: Data Engineer Associate

iii. Conocimiento avanzado en bases de datos relacionales y lenguaje SQL.

iv. Conocimiento avanzado en bases de datos NoSql.

v. Conocimiento avanzado de procesos y herramientas de ETL, principalmente enfocado a Azure.

vi. Conocimiento en procesamiento de datos batch, streaming, API.

vii. Conocimiento intermedio en programación Python y avanzado en el uso de la biblioteca pyspark.

viii. Conocimientos avanzados en el modelado de datos Data Vault para arquitecturas Data Lakehouse.

ix. Conocimientos avanzados en el modelado de datos Estrella y Copo de Nieve para arquitecturas Data Warehouse.

x. Conocimiento conceptual en gobierno de datos, seguridad de los datos y calidad de los datos.

PROCESO

El proceso de selección consta de una única prueba técnica en vivo con el equipo. No habrá entrevistas previas.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3000 Tiempo completo
Data Engineer (Bilingüe)
  • Adecco
  • Santiago (Hybrid)
Java Python Analytics SQL

Somos Adecco Chile, la filial local del líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en el país y una sólida trayectoria apoyando a empresas en su gestión de talento. Adecco Chile está comprometida con ofrecer soluciones integrales y personalizadas, destacándose en áreas como Selección de Personal, Staffing, Payroll Services y Training & Consulting. Nuestro equipo trabaja con altos estándares de calidad, respaldados por la certificación ISO 9001:2015, y con presencia en las principales ciudades del país. Actualmente, buscamos incorporar un Data Engineer para un proyecto estratégico de un cliente que involucra la construcción y optimización de pipelines de datos en cloud, con especial foco en tecnologías Google Cloud Platform y arquitecturas modernas de procesamiento y orquestación.

Find this vacancy on Get on Board.

Responsabilidades y Funciones Principales

En esta posición, el Data Engineer tendrá como objetivo principal diseñar, implementar y mantener pipelines de datos robustos y escalables para soportar las necesidades de inteligencia de negocio y análisis avanzado. Trabajará estrechamente con equipos de Data Science, BI y desarrollo para asegurar que los flujos de datos estén optimizados y disponibles para los diferentes consumidores.
  • Diseñar y desarrollar pipelines de ingesta, procesamiento y distribución de datos en la nube, utilizando tecnologías de Google Cloud Platform y frameworks open source.
  • Gestionar entornos de desarrollo para asegurar la reproducibilidad y escalabilidad con herramientas como venv, pip y poetry.
  • Implementar orquestadores de workflows como Cloud Composer (Airflow) y plataformas de AI pipelines para automatizar procesos de data engineering.
  • Optimizar el rendimiento de los clusters y pipelines de datos, tanto batch como streaming, aplicando conocimientos avanzados de Apache Spark, Apache Beam o Apache Flink.
  • Aplicar técnicas de feature engineering y gestión avanzada de datos para maximizar el valor analítico.
  • Administrar almacenamiento y bases de datos en GCP, como CloudSQL, BigQuery, Cloud Bigtable, Cloud Spanner y bases de datos vectoriales.
  • Coordinar la integración de microservicios y mensajería en tiempo real mediante Pub/Sub, Kafka y Kubernetes Engine.
  • Asegurar que los procesos CI/CD para pipelines de datos estén correctamente implementados con herramientas como GitHub, Jenkins, GitLab y Terraform.
  • Participar en el diseño y escalabilidad de arquitecturas distribuidas, garantizando la resiliencia y optimización del uso de recursos cloud.

Requisitos y Competencias

Buscamos profesionales con conocimientos sólidos y experiencia comprobable en el área de ingeniería de datos, con capacidad para trabajar en entornos dinámicos y multidisciplinarios. Es fundamental tener un dominio avanzado de la programación, experiencia práctica en la nube, y un amplio entendimiento de las arquitecturas modernas de datos.
  • Dominio del inglés, tanto escrito como verbal, para comunicación efectiva dentro de equipos y documentación técnica.
  • Experiencia avanzada en lenguajes de programación Python y Java, aplicados en el desarrollo y mantenimiento de pipelines de datos.
  • Experiencia práctica en entornos cloud, preferentemente Google Cloud Platform (GCP), utilizando servicios como CloudSQL, BigQuery, Cloud Storage, Pub/Sub, Cloud Functions y Kubernetes Engine.
  • Conocimiento profundo en manejo de contenedores Docker y gestión de entornos virtuales con herramientas como venv, pip y poetry.
  • Amplia experiencia en orquestación de workflows con Airflow, Vertex AI pipelines u otros orquestadores equivalentes.
  • Competencia en técnicas de ingeniería de datos, feature engineering, y frameworks de procesamiento distribuido en Batch y Streaming como Apache Spark, Apache Beam o Apache Flink.
  • Dominio avanzado de SQL y conceptos de streaming (windowing, triggers, late arrival) para estructurar y manipular datos en tiempo real.
  • Experiencia en integración continua y despliegue continuo (CI/CD) con herramientas como GitHub, Jenkins, GitLab, y conocimientos en infraestructura como código usando Terraform.
  • Capacidad para diseñar arquitecturas de datos distribuidas y optimizadas, con comprensión de criterios para selección de opciones de almacenamiento y cómputo.
  • Habilidades analíticas y mentalidad de negocio para interpretar el uso de los datos en procesos de Business Intelligence y Analítica avanzada.

Competencias Deseables

  • Experiencia práctica en sistemas distribuidos, escalables y resilientes.
  • Experiencia laboral en diseño y arquitectura de soluciones de datos end-to-end que incluyan transacciones y múltiples fuentes basadas en APIs.
  • Buen entendimiento de estrategias para la optimización de rendimiento en clusters y pipelines de datos.
  • Exposición a tecnologías GCP para pipelines de datos de extremo a extremo.
  • Experiencia con Kubernetes para orquestación y administración de contenedores a gran escala.
  • Experiencia con bases de datos vectoriales, en particular Qdrant, para casos avanzados de búsqueda y análisis.

¿Qué ofrecemos?

- Un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional.
- Oportunidad de formar parte de un equipo altamente cualificado y profesional en nuestro cliente
- Formación continua para mantenerte actualizado en las tecnologías más modernas.
- Oportunidades claras de crecimiento dentro de la empresa y el sector tecnológico.
- Contrato inicialmente a plazo fijo, con posibilidad de pasar a indefinido con el cliente final.
- Modalidad híbrida de trabajo: 1 días presencial en oficina y 4 días remoto.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Management
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence

Banco Santander Chile es una institución financiera líder en el país, reconocida por su enfoque en ayudar a personas y empresas a progresar mediante soluciones innovadoras y personalizadas. El área de banca comercial se dedica a diseñar y ejecutar estrategias comerciales que optimizan la rentabilidad de la cartera de clientes, utilizando tecnología avanzada para la gestión de datos y el desarrollo de herramientas propias que potencian la toma de decisiones y la experiencia del cliente.

Este equipo trabaja en la constante búsqueda y aplicación de nuevas tecnologías para mejorar las acciones comerciales y asegurar que las iniciativas estén disponibles y sean efectivas en los diferentes canales digitales y presenciales del banco.

Find this job on getonbrd.com.

Responsabilidades principales

Como data management, tus responsabilidades incluirán:

  • Participar en la generación de fuentes de información con los distintos atributos y variables calculadas.
  • Automatizar el despliegue de las acciones comerciales con los distintos actores de canales del banco.
  • Recomendar nuevas tecnologías para mejorar el despliegue y la búsqueda de nuevas acciones de las campañas dentro del equipo de inteligencia comercial.
  • Coordinar y desplegar las ofertas y/o campañas a los distintos canales del banco Santander.
  • Automatizar el despliegue de los Journeys (con Salesforce Marketing Cloud y Adobe Experience Platform - AJO) en base a los distinto eventos de nuestros clientes.

Perfil y experiencia requerida

Buscamos profesionales con experiencia en programación orientada a la gestión comercial en el sector financiero o afines. Se valoran conocimientos sólidos en análisis de datos, manejo de bases de datos y desarrollo de software aplicado a procesos comerciales.

Entre las habilidades técnicas y competencias destacan:

  • Experiencia en lenguajes de programación y explotación de datos, de al menos, 1 año.
  • SQL avanzado
  • Python avanzado en análisis de datos
  • Manejo de Tableau
  • Manejo de Power BI
  • Proactividad en la búsqueda constante de innovación tecnológica aplicable a la función.

Se valoran además habilidades blandas como la adaptación al cambio, resiliencia, y pensamiento crítico orientado a la mejora continua.

Conocimientos y experiencia complementarios

Será un plus contar con experiencia previa en bancos o instituciones financieras y manejo de herramientas como SalesForce Marketing Cloud y AJO de Adobe Experience Platform . Conocimientos en metodologías ágiles para proyectos de desarrollo tecnológico también serán bien valorados.

Habilidades adicionales en visualización de datos, para impulsar la innovación en las acciones comerciales serán una ventaja competitiva.

Beneficios y oportunidades de crecimiento

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 3000 Tiempo completo
Ingeniero/a de Datos / AI
  • Devups
Python Agile MySQL PostgreSQL
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

This job is original from Get on Board.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3100 - 4500 Tiempo completo
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL Machine Learning A/B Testing

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

Find this vacancy on Get on Board.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Sales Operations & Automation Specialist
  • Tandem Bike Partners
Python SQL CRM Sales

We are Tandem Bike Partners, a boutique consultancy helping founders scale through fractional GTM and operations leadership.

As our GTM Engineer, you’ll build the systems that power outbound growth. You’ll code Python workflows, connect CRMs and automation tools, and manage the data pipelines that turn research into revenue.

You’ll work directly with the founder and client teams to source leads, automate outreach, and keep data clean and reliable across campaigns. Your work will support clients in architecture, real estate, software, and professional services—helping them scale faster through better systems.

This role is perfect for a builder who loves mixing code, automation, and GTM strategy to create measurable results.

© getonbrd.com.

Job Responsibilities

  • Build and maintain Python-based data pipelines that source, enrich, and score target accounts from APIs and web data.
  • Develop self-hosted automations using n8n or custom code to connect CRMs, outreach tools, and analytics systems.
  • Manage a simple internal database (Postgres, Airtable, or Supabase) to store and query lead and campaign data.
  • Create dynamic outbound workflows that personalize messaging and feed performance data back into the system.
  • Own CRM data quality and reporting, ensuring clean syncs and accurate dashboards.
  • Prototype and deploy tools that automate manual GTM tasks and improve conversion efficiency.
  • Operate as a full-stack GTM technologist who codes, tests, and runs your own infrastructure.

Required Skills and Experience

  • Fluent English (written and spoken) with strong communication skills. (C1 or C2 Only)
  • 2+ years of experience in GTM operations, automation, or data engineering.
  • Strong Python skills and familiarity with APIs, web data, and automation frameworks (n8n, Make, or Zapier).
  • Comfortable working with CRMs like HubSpot or Pipedrive and managing clean, reliable data flows.
  • Excellent analytical and problem-solving skills with strong attention to detail.
  • Self-directed and organized, able to manage projects independently in a remote setting.
  • A builder’s mindset—curious, fast-moving, and motivated by creating systems that drive measurable growth.

Additional Skills

  • Experience supporting multiple GTM engagements or campaigns simultaneously.
  • Familiarity with Apollo, Clay, Airtable, or similar tools for data orchestration.
  • Prior exposure to outbound sales in technology, services, or professional services sectors.
  • Comfortable with rapid iteration and data-driven decision making.

Benefits

This is a remote contract role offering flexible working hours to accommodate different time zones. We value autonomy and results-driven work styles. We offer competitive compensation based on experience and skill level.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3500 - 4500 Tiempo completo
Product Owner – C1do1.AI
  • Training Competence Spa
  • Santiago (Hybrid)
JavaScript Ruby on Rails UX UI Design

Training Competence Spa gestiona C1DO1.ai, una plataforma educativa basada en feedback digital potenciado por IA. Nuestro objetivo es transferir habilidades prácticas de forma remota y asincrónica, mediante una metodología centrada en la repetición de procedimientos: el aprendiz graba su desempeño, se carga a la nube y recibe feedback estructurado de un profesor a través de herramientas digitales. El proceso se repite hasta dominar la habilidad, con un enfoque en aprendizaje medible y resultados reales. Trabajamos en la intersección de educación, tecnología, data e IA, priorizando impacto y mejora continua. Buscamos un Product Owner que lidere la evolución del producto, conectando necesidades de usuarios, negocio y tecnología, con visión de escalabilidad y enfoque data-driven. Trabajarás directamente con el CEO/CTO y el equipo de desarrollo para construir una plataforma robusta, adaptable y centrada en el aprendizaje efectivo.

Apply to this job from Get on Board.

Funciones y responsabilidades

  • Definir y priorizar el backlog del producto alineado a la visión de C1DO1.ai, traduciendo necesidades de usuarios (aprendices, docentes e instituciones) en historias claras y accionables.
  • Gestionar ceremonias Scrum: planificación, daily, revisión y retrospectiva; asegurar entregas con valor para el usuario y el negocio.
  • Tomar decisiones basadas en métricas de producto (activación, retención, engagement, tasa de finalización y loops de feedback).
  • Trabajar con datos y analytics para analizar comportamiento de usuarios, validar hipótesis y medir impacto de nuevas funcionalidades.
  • Colaborar estrechamente con diseño, desarrollo y stakeholders educativos para impulsar mejoras centradas en la experiencia de aprendizaje.
  • Apoyar la definición y mejora continua de flujos de feedback digital e integración de IA.
  • Documentar avances de producto y comunicar de forma clara y efectiva a equipos y ejecutivos.
  • Proponer visión a futuro del producto potenciado con IA

Requisitos y perfil

Experiencia documentada como Product Owner o Product Manager, preferiblemente en startups o productos digitales. Sólido manejo de metodologías Scrum/Agile y experiencia trabajando con herramientas de analytics de producto (GA4, Mixpanel, Amplitude, Metabase, Looker, entre otras). Capacidad para convertir métricas en decisiones y priorización efectiva. Inglés intermedio para lectura de documentación y reuniones puntuales.

Experiencia comprobable en diseño y gestión de soluciones con agentes inteligentes / multiagentes IA, incluyendo su integración, definición de flujos de inferencia y colaboración con equipos técnicos.

Se valorará experiencia en EdTech, HealthTech o productos de aprendizaje, conocimientos básicos de UX/UI y diseño centrado en el usuario.

Conocimientos de programación (Python, react, ruby on rails, uso de APIs de IA/ML, comprensión de pipelines de modelos).

Perfil buscado: mentalidad data-driven, curiosidad, enfoque en impacto, habilidad para priorizar en contextos de incertidumbre, comunicación clara entre perfiles técnicos y no técnicos, autonomía, sentido de ownership y pasión por educación, transferencia de habilidades e IA

Deseables

Experiencia demostrable en proyectos de aprendizaje y plataformas educativas. Familiaridad con herramientas de IA aplicadas a feedback y mejora continua. Trayectoria trabajando en equipos multidisciplinarios y capacidad para impulsar iniciativas desde la concepción hasta la ejecución. Conocimiento de metodologías de diseño centrado en usuario y buenas prácticas de UX/UI.

Beneficios

Rol clave en una startup tecnológica con impacto real en educación. Trabajo directo con fundadores (CEO/CTO). Modalidad híbrida y flexibilidad. Espacio para proponer, experimentar y construir producto desde cero. Proyección de crecimiento profesional a medida que la empresa escala, con foco en aprendizaje práctico y desarrollo de habilidades.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2000 Tiempo completo
Ingeniero de Proyectos TI
  • GeoVictoria
  • Lima (Hybrid)
Python Analytics SQL Back-end

¡Lidera el camino como Jefe de Proyectos TI en GeoVictoria! Serás quien garantice que nuestras soluciones tecnológicas se transformen en experiencias exitosas para nuestros clientes, desde el primer requerimiento hasta la entrega final.

El equipo es internacional y tendrás la oportunidad de trabajar con personas desde el área de Desarrollo en distintos países.

Applications: getonbrd.com.

Responsabilidades

  • Liderar proyectos desde el levantamiento de requerimientos hasta la entrega formal al cliente, asegurando altos estándares de calidad en cada etapa.
  • Analizar los requerimientos de los clientes, proponer soluciones y gestionar cotizaciones para nuevas solicitudes o mejoras dentro del proyecto.
  • Coordinar y hacer seguimiento a las distintas áreas involucradas en el desarrollo del proyecto, identificando y mitigando posibles riesgos.
  • Establecer acuerdos formales con los clientes, definiendo funcionalidades en colaboración con el equipo de desarrollo y manteniendo una comunicación efectiva.
  • Elaborar y mantener actualizada la planificación del proyecto, estableciendo lineamientos y un marco de trabajo claro hacia el cliente.

Requerimientos del cargo

  • Título en Ingeniería Civil en Computación o Informática, con interés en gestión de clientes. También valoramos Ingeniería Industrial o Comercial con experiencia en proyectos TI.
  • Conocimientos en herramientas TI en general, SQL, Python y programación básica.
  • Capacidad para trabajar de manera autónoma y en equipo.
  • Habilidades de liderazgo y capacidad analítica.
  • Disponibilidad para trabajar de manera híbrida en Providencia, Región Metropolitana.

Valorables

  • Experiencia previa liderando proyectos TI.
  • Conocimiento de metodologías ágiles.
  • Buen manejo de documentación de requerimientos y herramientas colaborativas"

¡Conoce nuestros Beneficios!

- Beneficios acorde a ley al 100%
- Salario acorde al mercado
- Trabajo híbrido
- Oficina Pet Friendly
- Oportunidades de línea de crecimiento
- Trabajo con equipo multidisciplinario en una empresa Trasnacional

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Product Operations Analyst
  • Compara
Python Git SQL Business Intelligence
Compara Online es la plataforma digital que impulsa mejores decisiones financieras en Latinoamérica, permitiendo cotizar y comparar seguros y productos financieros. Nuestra misión es construir un futuro donde la inteligencia artificial y la transparencia empoderen a millones de personas para tomar decisiones más simples, más seguras y más inteligentes.
En este contexto, el equipo de Product Operations juega un rol clave: optimizamos cómo se planifica, construye, lanza y mejora el producto. Somos el área que lidera la estrategia y coordina la ejecución de proyectos clave para Compara.
Buscamos un Product Operations Analyst para apoyar a equipos multifuncionales en el lanzamiento de iniciativas estratégicas. Tu trabajo estará en el centro del negocio: transformar datos en insights accionables, apoyar la toma de decisiones, mejorar procesos internos y coordinar a equipos para avanzar proyectos que mueven las métricas de Compara.

Official job site: Get on Board.

¿Qué harás?

  • Analizar datos, indicadores y procesos para identificar oportunidades de mejora y soportar decisiones estratégicas.
  • Utilizar IA (incluyendo LLMs) para automatizar tareas, acelerar análisis y optimizar procesos internos.
  • Coordinar equipos multifuncionales para planificar, ejecutar y monitorear proyectos estratégicos de Compara.
  • Elaborar reportes, dashboards e insights que permitan al negocio entender performance, riesgos y oportunidades.
  • Levantar requerimientos, documentar procesos y dar seguimiento a implementaciones con equipos de Producto, Data, Ingeniería y Operaciones.
  • Participar en el lanzamiento y seguimiento de iniciativas clave, asegurando claridad, alineación y avance continuo.
  • Proponer mejoras basadas en datos y en tu entendimiento de los flujos operativos del negocio.

¿A quién buscamos?

  • Profesional graduado en Ingeniería, Economía, Administración, Sistemas, Matemáticas o carreras STEM.
  • Persona IA-first, que incorpore IA de forma natural en su trabajo diario para analizar datos, optimizar tareas y mejorar procesos.
  • Dominio de SQL y bases prácticas de Python para análisis y automatización de tareas.
  • Experiencia en análisis, operaciones, producto o roles similares.
  • Capacidad para estructurar información, analizar procesos y generar insights claros y accionables.
  • Manejo de herramientas de visualización de datos (idealmente Metabase).
  • Habilidad para coordinar equipos multifuncionales y hacer seguimiento de proyectos con orden y claridad.
  • Pensamiento analítico, autonomía y foco en resultados.
  • Conocimiento básico de Git o disposición a aprenderlo rápidamente.
  • Excelentes habilidades de comunicación escrita y oral.

Será un plus si cuentas con:

  • Experiencia en RPA (idealmente Playwright u otras herramientas similares).
  • Experiencia en extracción y procesamiento de datos con IA.
  • Conocimientos de metodologías de experimentación o mejora continua (A/B testing, Lean, Kaizen).
  • Proyectos personales o contribuciones que muestren curiosidad técnica o uso avanzado de IA.

¿Qué ofrecemos?

Estos son algunos de nuestros beneficios:
  • Trabajo 100% remoto
  • Cultura flexible orientada a resultados
  • Vacaciones ilimitadas pagas
  • Cobertura del seguro para viajes internacionales
  • Movilidad internacional: puedes trabajar desde donde quieras
En Compara fomentamos la curiosidad, el aprendizaje continuo y la experimentación. Si disfrutas usar IA y datos para entender problemas, proponer mejoras y trabajar con equipos diversos, encontrarás un espacio donde puedes aprender, aportar y crecer.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Vacation over legal Compara gives you paid vacations over the legal minimum.
Parental leave over legal Compara offers paid parental leave over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3500 Tiempo completo
Senior Flutter Developer
  • Niuro
Python Agile PostgreSQL REST API
Niuro connects projects with elite tech teams, delivering autonomous, high-performance engineering capabilities to top-tier U.S. companies. This role contributes to impactful fintech initiatives, building secure, scalable mobile solutions within a distributed, collaborative environment. You will be part of a globally distributed team that emphasizes continuous professional growth, leadership development, and end-to-end delivery—from design to deployment and maintenance. The projects emphasize regulatory compliance, high reliability, and business-focused outcomes, with strong support from Niuro’s administrative and learning programs to enable focus on delivering exceptional results.

Apply directly through getonbrd.com.

Key Responsibilities

  • Design, develop, and maintain mobile applications using Flutter and Dart for iOS and Android.
  • Build secure, scalable, and performant mobile experiences tailored to fintech products (payments, wallets, banking, lending).
  • Collaborate with backend and product teams to define APIs, data contracts, and user flows.
  • Participate in technical design, architecture discussions, and code reviews.
  • Write clean, testable, well-documented code following best practices; implement automated tests.
  • Own features end-to-end from design through release and ongoing maintenance, with a focus on quality and security.

What you will bring

We are seeking a Senior Flutter Developer with 5+ years of software development experience and hands-on expertise in Dart and Flutter for mobile apps. You should have a track record working with fintech or financial-related products, with a solid understanding of mobile architecture, state management, performance optimization, and security. You will consume and integrate REST APIs, work in Agile/Scrum environments, and demonstrate strong problem-solving and ownership. Proficiency in English to collaborate with international teams is required.

Nice to Have

Backend experience with Python + FastAPI; PostgreSQL and relational data modeling; frontend experience with Node.js, Deno, or Bun; familiarity with Svelte or React; experience working on full-stack or cross-functional teams.

What We Offer

We provide opportunities to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 2500 Tiempo completo
Flutter Developer
  • Niuro
JavaScript Python Agile Front-end
Niuro is a company dedicated to connecting elite technology teams with leading U.S. companies, providing innovative solutions in global talent acquisition. We empower autonomous, high-performance tech teams to tackle challenging and impactful projects that drive digital transformation and innovation.
As part of our collaboration with clients, you will join a diverse engineering team focused on delivering high-quality mobile and web applications using modern technologies. The projects typically involve full-stack development for industrial and commercial applications that require scalable, fast, and maintainable software systems. Our environment promotes technical excellence, innovation, and continuous professional growth.

Job opportunity on getonbrd.com.

Main responsibilities

As a Flutter Developer in our team, your core mission will be to design, build, and maintain cross-platform mobile applications using Flutter and Dart. You will collaborate closely with frontend and backend developers, product managers, and UX designers to deliver seamless and performant user experiences.
  • Develop, test, and deploy Flutter applications targeting iOS and Android platforms.
  • Work alongside frontend teams experienced in React and Svelte to integrate web components when necessary.
  • Collaborate with backend engineers working with FastAPI, Python, and PostgreSQL to consume APIs and handle data synchronization.
  • Ensure code quality through testing, code reviews, and adherence to best practices.
  • Participate in Agile ceremonies and contribute to continuous improvement of development processes.
  • Communicate effectively with U.S.-based teams using conversational English, ensuring alignment and smooth collaboration.

Required skills and experience

We are looking for a highly motivated developer with proven experience building mobile applications using Flutter and Dart. The ideal candidate is passionate about mobile development, writes clean code, and embraces collaboration and continuous learning.
  • Strong experience with Flutter and Dart to develop performant cross-platform applications.
  • Knowledge of frontend frameworks such as React or Svelte to facilitate integration in hybrid projects.
  • Backend experience with FastAPI and Python, as well as working knowledge of relational databases like PostgreSQL.
  • Ability to write readable, maintainable, and well-tested code.
  • Conversational English skills sufficient to communicate and collaborate with U.S.-based product and engineering teams.
  • Good problem-solving skills and a proactive attitude towards learning new technologies.
  • Experience working in Agile environments and using modern development tools.
Soft skills such as teamwork, communication, and accountability are essential for successful collaboration and project delivery.

Desirable skills

Experience with additional mobile development frameworks or native code (Swift, Kotlin) is a plus. Familiarity with CI/CD pipelines and automated testing frameworks will be highly valued. Knowledge of cloud platforms such as AWS or Google Cloud, containerization technologies like Docker, and monitoring tools would also strengthen your candidacy.
Previous experience working remotely with international teams or exposure to the U.S. market is an advantage.

What we offer

At Niuro, we provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
We support a 100% remote work model, allowing flexible work location throughout LATAM and beyond. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to career stability.
Joining Niuro means becoming part of a global community dedicated to technological excellence, with strong administrative support so you can focus on delivering meaningful work.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $350 - 450 Tiempo completo
🌟 Programa Trainee 2026 | Customer Service & IA
  • ICONSTRUYE
  • Santiago (Hybrid)
Python Analytics Data Analysis Excel

Acompáñanos a transformar una de las industrias más grandes de la región. En iConstruye no somos solo una plataforma; somos el ecosistema que conecta miles de obras, integrando la solución completa desde el pedido de materiales hasta el pago. Movemos los proyectos que construyen el futuro de Chile, Perú y Colombia.

Nos hemos propuesto romper los esquemas de lo tradicional. Somos un equipo apasionado por la tecnología, que se levanta cada día para resolver desafíos logísticos complejos y crear impacto real en más de 4.000 clientes. Si tienes hambre de crecimiento y quieres que tu talento se traduzca en resultados, este es tu lugar.

¿Te interesa la Inteligencia Artificial aplicada a la experiencia del cliente? ¿Te motiva optimizar procesos, automatizar flujos y trabajar con datos reales en una operación en crecimiento? ¡Esta es tu oportunidad para aprender, impactar y crecer!

📍 Modalidad: híbrida y part-time
📅 Inicio: marzo 2026

Apply to this job without intermediaries on Get on Board.

🎯 ¿Cuál será tu desafío y el proyecto?

🔍 Proyecto: Optimización Inteligente de la Mesa de Ayuda.

Buscamos un/a Ingeniero/a Trainee para sumarse al equipo de Customer Service y liderar, con acompañamiento del equipo, la incorporación de capacidades de IA y automatización en nuestra Mesa de Ayuda.

El objetivo del proyecto es evolucionar desde una atención homogénea hacia un modelo de atención segmentada, eficiente y centrada en el cliente, utilizando las herramientas ya disponibles en nuestra operación.

🎯 ¿Cuál será tu desafío?

  • Levantar, configurar y activar funcionalidades de IA nativa en plataformas como Zendesk, Aircall, ChatBot ClaudIA (WotNot), WhatsApp y otros canales
  • Rediseñar el autoservicio y flujos del chatbot, con foco en:
  • Alcanzar al menos un 30% del volumen total de atención
  • Reducir significativamente el abandono del chatbot (hoy cercano al 80%)
  • Implementar automatizaciones inteligentes para clasificación, ruteo y priorización de casos
  • Crear reportes, dashboards e insights basados en datos para la toma de decisiones
  • Liberar carga operacional del equipo, permitiendo avanzar en mejoras estratégicas de mayor impacto

👤 Perfil que buscamos

  • Estudiantes en último año y/o apunto de egresar en carreras tales como Ing. Informática, Ing. Civil en Computación o afín. (excluyente)
  • Interés y conocimientos básicos/intermedios en Inteligencia Artificial aplicada
  • Capacidad para trabajar con herramientas SaaS (Zendesk, Aircall, ChatBots, u otras)
  • Nociones de integración y automatización (APIs, low-code / no-code)
  • Habilidad analítica para métricas, reporting y optimización de procesos
  • Conocimientos básicos en manejo de datos (Excel; SQL básico; Python deseable)
  • Proactividad, rigurosidad y capacidad de documentar y estructurar procesos

🌱 ¿Qué ofrecemos?

  • 💸 Bono mensual remunerado de $400.000 líquidos.
  • 🍔 Amipass: tu partner foodie: Con tu tarjeta Amipass, elige libremente: un delivery en tu serie favorita, una salida con amigos o la compra del mes en el súper. Tú decides cómo darte el gusto
  • 🏠 Trabajo a tu estilo: Con nuestra modalidad híbrida, combina lo mejor del home office y la oficina.
  • 👩‍👦 Viernes hasta las 14.00 hrs en vacaciones de verano y de invierno.
  • 🎂 Tu día, tuyo de verdad: En tu cumpleaños, te damos la tarde libre para celebrarlo como se merece.
  • 💰 Aguinaldo en Fiestas Patrias y de Navidad.

Computer provided ICONSTRUYE provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks ICONSTRUYE offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Customer Success Analyst
  • The Optimal
  • Santiago (Hybrid)
Python Analytics Data Analysis Excel
En The Optimal, líder en servicios tecnológicos para la toma de decisiones en logística de carga y pasajeros, trabajamos en proyectos que buscan reducir costos de transporte, mejorar la visibilidad de la cadena de abastecimiento y ofrecer soluciones para la optimización de rutas y automatización de procesos. El objetivo es entregar análisis de datos y herramientas que apoyen a nuestros clientes en Chile, Colombia, Ecuador y Perú, con planes de expansión regional. El/la CSA será pieza clave para convertir la experiencia del cliente en valor medible, colaborando estrechamente con equipos de producto, implementación y operaciones para garantizar resultados exitosos y satisfacción continua.

This job is published by getonbrd.com.

Funciones y responsabilidades

  • Gestionar proactivamente la relación con los clientes para asegurar su éxito, satisfacción y retención.
  • Resolver de forma eficaz los problemas y requerimientos reportados para garantizar la continuidad y calidad del servicio.
  • Identificar y desarrollar oportunidades de crecimiento (cross-selling y up-selling) dentro de la cartera de clientes.
  • Mantener una comunicación efectiva y constante, asegurando respuestas oportunas a las necesidades del cliente.
  • Trabajar con equipos de producto, servicios y soporte para garantizar la entrega de soluciones alineadas a los objetivos del cliente.
  • Analizar métricas de uso, satisfacción y resultados operativos para proponer mejoras y acciones preventivas.
  • Elaborar informes y presentaciones de valor para clientes y stakeholders internos.

Descripción del perfil y requisitos

Buscamos a una persona proactiva, analítica y orientada al cliente para garantizar experiencias de alto valor. El/la candidato/a ideal deberá combinar habilidades de comunicación, capacidad de resolución de problemas y un enfoque consultivo con una comprensión técnica básica de herramientas de datos y procesos logísticos. Se valora experiencia previa en roles de customer success, soporte o account management en entornos de SaaS o logística.

Requisitos mínimos: formación en Ingeniería Civil, Comercial o Industrial.
- Nivel avanzado de Office (Excel, PowerPoint)
- Manejo básico de herramientas de BI (Power BI, Tableau, Python Pandas, etc.).
- Conocimientos en logística y análisis de datos son deseables.

Habilidades de comunicación, excelencia, orientación al cliente, trabajo en equipo y capacidad para gestionar múltiples clientes y proyectos simultáneamente.

Competencias y experiencia deseables

Se valorará experiencia en empresas de logística o transporte y conocimiento de plataformas SaaS orientadas a operaciones (Ruteo, Tracking, Proof of Delivery). Capacidad para traducir necesidades de negocio en requerimientos técnicos y experiencia en ventas cruzadas dentro de una cartera de clientes. Actitud proactiva, analítica, orientada a resultados y capacidad para trabajar en entornos dinámicos y colaborativos.

Beneficios

Jornada Mixta: Cowork 🏢 & Home Office 🏠

Horario laboral: Lunes a viernes Full Time⏱️

Proyectos retadores y uso de tecnologías a la vanguardia 🤓

Asignación por concepto de movilización y colación🪙

Partially remote You can work from your home some days a week.
Health coverage The Optimal pays or copays health insurance for employees.
Computer provided The Optimal provides a computer for your work.
Beverages and snacks The Optimal offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2100 - 2800 Tiempo completo
Ingeniero de Soporte II
  • Checkr
  • Santiago (Hybrid)
Ruby on Rails Python SQL Soporte técnico

Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de evaluar a los solicitantes de empleo. Fundada en 2014, Checkr pone tecnología moderna impulsada por aprendizaje automático en manos de los equipos de contratación, ayudando a contratar talento con una experiencia rápida, fluida y segura.

Checkr cuenta con más de 100,000 clientes como DoorDash, Coinbase, Lyft, Instacart y Airtable. Trabajar en Checkr implica colaborar con mentes brillantes, revolucionar un sector y abrir oportunidades a candidatos que suelen pasar desapercibidos. Checkr es reconocida en la lista Forbes Cloud 200 2024 y es una empresa innovadora de Y Combinator 2023.

Como Ingeniero de Soporte II, ayudarás a clientes con problemas técnicos en producción y actuarás como puente entre soporte e ingeniería. Este rol es ideal para personas con sólidas habilidades de servicio al cliente y proyección hacia una carrera en desarrollo de software o ingeniería.

Find this job and more on Get on Board.

Responsabilidades del cargo

  • Proporcionar soporte técnico de calidad a nuestros clientes y socios, aprovechando nuestro sistema de tickets de Salesforce y las llamadas con pantalla compartida con los clientes.
  • Resolver problemas de código y realizar investigaciones en profundidad hasta el nivel de la aplicación, utilizando herramientas como DataDog, Snowflake y el análisis de registros de API, escalando a ingeniería cuando sea necesario.
  • Utilizar scripts y manuales preescritos para gestionar de manera eficiente tareas complejas de soporte manual.
  • Ejecutar comunicaciones de incidentes críticos de alta visibilidad, traduciendo la información sobre el impacto de ingeniería a los clientes y a los equipos de atención al cliente durante turnos de guardia 24/7.
  • Gestionar las escaladas, las tareas de reparación relacionadas con incidentes y las mejoras de procesos en Jira utilizando los tableros kanban de nuestro equipo.
  • Contribuir a la documentación interna del equipo en Confluence, fomentando un entorno de aprendizaje continuo.

Calificaciones y Requisitos del cargo

  • Más de 2 años de experiencia en un puesto técnico de cara al cliente en una empresa de SaaS, incluyendo experiencia práctica con API y soporte técnico para productos API.
  • Habilidades demostradas en la resolución de problemas técnicos, la depuración y la colaboración con equipos de ingeniería. Experiencia en herramientas como cURL y Postman. Se valorará el conocimiento de Python y Ruby on Rails.
  • Habilidades de comunicación excepcionales, capaz de explicar información compleja a un público no técnico de forma clara y empática.
  • Gran atención al detalle y habilidades efectivas de gestión del tiempo.
  • Alto nivel de dominio del inglés.
  • Gran dominio de SQL, conocimientos básicos de principios de ingeniería y experiencia con herramientas de observabilidad como Datadog, Prometheus, etc.

Que ofrecemos?

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Originally published on getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 2600 Tiempo completo
Oficial de Ciberseguridad
  • Inexoos
  • Santiago (In-office)
Java Python Linux Virtualization
Compañía: Inexoos, un grupo de empresas latinoamericanas con más de 20 años de operación, dedicado a entregar soluciones tecnológicas de calidad e innovación en educación, salud y negocio. Nuestro objetivo es proteger activos de información y alinear la seguridad con las metas de negocio de las unidades de salud y educación.

Proyecto y alcance: Diseñar, implementar y supervisar la estrategia de ciberseguridad del holding, gestionando riesgos, cumplimiento normativo y defensa ante amenazas cibernéticas. Este rol es clave para garantizar la continuidad operativa, la protección de datos y la confianza de clientes y socios en un entorno tecnológico en constante evolución. El oficial trabajará en colaboración con equipos de tecnología, cumplimiento y operaciones para traducir requisitos de negocio en controles técnicos efectivos.

Apply to this job without intermediaries on Get on Board.

Funciones y responsabilidades clave


1. Estrategia y Gobierno de Seguridad

  • Definir y mantener el plan estratégico de ciberseguridad del holding.
  • Alinear políticas y controles con estándares como ISO/IEC 27001:2022, NIST CSF y leyes locales (Ley 19.628, GDPR).
  • Establecer indicadores de desempeño y riesgo (KPIs y KRIs) para la ciberseguridad.


2. Ejecución de Pruebas Técnicas

  • Ejecutar directamente pruebas de vulnerabilidad y pentesting en sistemas, redes, aplicaciones e infraestructura.
  • Analizar código fuente en desarrollos internos/externos y validar configuraciones seguras en entornos cloud y on-premise.
  • Generar reportes técnicos y validar correcciones de seguridad.

3. Monitoreo y Operación

  • Operar y mejorar herramientas como SIEM, EDR, DLP, IDS/IPS, entre otras.
  • Gestionar incidentes de seguridad, desde su detección hasta su resolución.
  • Coordinar el ciclo de vulnerabilidades, parches y hardening.

4. Cumplimiento y Auditoría

  • Asegurar el cumplimiento con normativas locales e internacionales (Ley 19.628, Cybercrime Act, Privacy Act, GDPR, ISO 27701).
  • Participar en auditorías técnicas de seguridad y planes de remediación.
  • Mantener actualizados los controles del ISMS y liderar revisiones técnicas periódicas.

5. Cultura de Seguridad y Concientización

  • Diseñar campañas de concientización y programas de formación para usuarios, técnicos y stakeholders.
  • Fomentar la colaboración transversal con áreas como Desarrollo, Legal, Compliance y Comercial.

Perfil y habilidades requeridas

Formación:

  • Título profesional en Ingeniería en Informática, Sistemas, Electrónica o afín.

Experiencia:

  • ≥ 3 años de experiencia comprobable en roles de ciberseguridad ofensiva/defensiva, pruebas de penetración y gestión de riesgos técnicos.
  • Experiencia en implementación y auditoría de ISO/IEC 27001:2022.

Conocimientos Técnicos:

  • Dominio de frameworks: ISO/IEC 27001, NIST CSF, OWASP Top 10.
  • Conocimiento práctico de herramientas: Burp Suite, Nessus, Metasploit, Wireshark, Kali Linux, SonarQube, etc.
  • Experiencia en entornos cloud (AWS, Azure), sistemas operativos (Windows/Linux), redes y lenguajes de programación (Python, Java).
  • Gestión de incidentes y operación de soluciones como SIEM, EDR, IDS/IPS.

Certificaciones (al menos una):

  • ISO/IEC 27001:2022 Lead Implementer o Auditor.

Competencias y experiencias deseables

Certificaciones adicionales: OSCP, CEH, GPEN, CISSP, CISM, CCSP.

Experiencia en sectores regulados: salud, educación, fintech, SaaS.

Conocimiento en cumplimiento normativo: GDPR, HIPAA, PCI DSS, SOC 2.

Experiencia liderando equipos de seguridad o proveedores externos.

Participación en procesos de auditoría interna y externa.

Beneficios y cultura

Seguro Complementario, aguinaldos (fiestas patrias y navidad), mediodía libre para tu compleaños.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Inexoos pays or copays health insurance for employees.
Computer provided Inexoos provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero Smo (Sector Bancario)
  • Devsu
  • Quito (Hybrid)
Python Business Intelligence Virtualization Microservices

Con más de 10 años impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y América Latina, en Devsu hemos desarrollado soluciones de alto impacto en industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de aprender constantemente y participar en proyectos desafiantes y de alto impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en distintos productos y soluciones de software.

Formarás parte de un entorno multicultural, con una estructura organizacional plana, donde el trabajo en equipo, el aprendizaje continuo y la flexibilidad son pilares fundamentales.

Actualmente, estamos en la búsqueda de un Ing. SMO experimentado para sumarse a nuestro equipo de forma presencial en Quito.

Job opportunity published on getonbrd.com.

Funciones del cargo

  • Liderar la respuesta técnica ante incidentes críticos, gestionando el diagnóstico, acciones de mitigación y soluciones alternativas.
  • Supervisar el ciclo de vida completo del incidente y asegurar el cumplimiento de los procesos definidos.
  • Desarrollar, mantener y mejorar planes de respuesta a incidentes y planes de recuperación ante desastres (DRP).
  • Coordinar y conducir sesiones Post Mortem, asegurando la identificación de causas raíz y acciones de mejora.
  • Generar, revisar y mantener artículos de conocimiento de alta complejidad técnica.
  • Colaborar con la Gestión de Cambios y Gestión de Problemas en casos que requieran análisis técnico profundo.
  • Realizar auditorías y revisiones periódicas del proceso de gestión de incidentes para identificar oportunidades de mejora.
  • Mentorizar y brindar soporte técnico al equipo, fortaleciendo a perfiles Semi Senior y Junior.
  • Participar en iniciativas de automatización y optimización de procesos, incluyendo el diseño de playbooks.

Requerimientos del cargo

  • Dominio de los marcos de gestión de servicios TI (ITIL).
  • Amplio conocimiento en arquitecturas de sistemas distribuidos, bases de datos y redes.
  • Experiencia en ciberseguridad y componentes de seguridad perimetral.
  • Experiencia con virtualización (VMware) y administración de sistemas operativos.
  • Conocimiento sólido en Arquitectura de Soluciones, Arquitectura Empresarial y microservicios.
  • Familiaridad con arquitecturas Cloud y su operación.
  • Experiencia con herramientas como ServiceNow, Dynatrace, Zabbix, Grafana.
  • Conocimiento y manejo de herramientas de Business Intelligence.
  • Manejo de Python (deseable).

Conocimiento

  • ITILv3
  • Plataformas Wintel, Unix, BDD
  • Arquitecturas de Telecomunicaciones
  • ServiceNow, Dynatrace, Zabbix, Grafana, Python
  • Software de modelamiento de Arquitectura de Software
  • Herramientas de Business Intelligence

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero de Sistemas CDN
  • Mediastream
  • Bogotá (In-office)
Ruby Python Linux Web server

En Mediastream, lideramos la tecnología de streaming para grandes empresas y broadcasters a nivel mundial. Nuestro equipo desarrolla herramientas propias para optimizar la entrega de contenido audiovisual y garantizar experiencias de alta calidad para audiencias globales. Buscamos fortalecer nuestra infraestructura CDN para entregar contenido de forma rápida, segura y escalable, manteniendo un soporte 24/7 para nuestros clientes. El rol se integrará al equipo de ingeniería para diseñar, implementar y optimizar soluciones CDN end-to-end que soporten picos de tráfico y la distribución de contenido en múltiples regiones. Participarás en proyectos de alto impacto, colaborando con equipos de desarrollo de aplicaciones, ciberseguridad y operaciones.

This job offer is available on Get on Board.

Funciones y responsabilidades

  • Diseñar, configurar y optimizar la infraestructura de la CDN para mejorar la velocidad y la seguridad de la entrega de contenido.
  • Monitorear de forma continua el rendimiento de la CDN, identificar cuellos de botella y aplicar optimizaciones para garantizar continuidad y rendimiento operativo.
  • Rotar turnos de guardia y supervisar de forma sincronizada eventos de streaming de alta concurrencia.
  • Implementar medidas de seguridad para proteger la CDN frente a amenazas, incluidos ataques DDoS y otros vectores de ataque.
  • Colaborar estrechamente con equipos de desarrollo de aplicaciones y ciberseguridad para asegurar integraciones eficientes y políticas de seguridad.
  • Trabajar con equipos de desarrollo y contenido para optimizar la entrega de contenido a través de la CDN.
  • Investigar y evaluar tecnologías, tendencias y mejores prácticas en CDN; proponer, acordar, implementar, documentar y capacitar al equipo.

Requisitos y perfil buscado

Formación: Ingeniería Informática, Sistemas, Redes o campo afín. Certificaciones en nube, redes o Linux son valoradas (p. ej., AWS, Cisco, Linux, Nginx, Docker).

Conocimientos técnicos: Sistemas operativos Linux (Ubuntu, Debian, CentOS), administración y soporte de infraestructuras de red (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, firewalls), herramientas de monitorización (con preferencia Datadog), scripting (Bash, Python, Ruby u otros), administración de servidores web (Nginx), experiencia con AWS, CloudFront y Route 53. Experiencia en codificación de video y transcoding es deseable.

Experiencia de al menos 5 años en roles relacionados con CDN, redes de entrega de contenido, o infraestructuras de streaming. Capacidad para trabajar en entornos críticos, resolución de problemas en tiempo real y colaboración interdisciplinaria.

Deseables

Conocimientos avanzados en herramientas de monitorización y análisis de tráfico; experiencia con múltiples plataformas de nube y CDN; habilidades de automatización de procesos. Se valorarán habilidades de comunicación, trabajo en equipo y orientación a la solución de problemas en entornos críticos.

Beneficios y cultura

En Mediastream ofrecemos un entorno laboral dinámico y colaborativo que fomenta la innovación y el crecimiento profesional. Promovemos una cultura inclusiva basada en el apoyo mutuo y el desarrollo personal y profesional. Contamos con amplias oportunidades de capacitación en tecnologías de vanguardia y trabajamos con un equipo de alto nivel para afrontar desafíos relevantes en la industria del streaming y distribución audiovisual. Ofrecemos oportunidades de desarrollo, un horario estable y un entorno que valora el equilibrio entre vida personal y profesional.

Health coverage Mediastream pays or copays health insurance for employees.
Computer provided Mediastream provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
AI Engineer (RAG & Intelligent Agents)
  • Dynamic Devs
  • Santiago (Hybrid)
JavaScript Java Python Agile

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

📢 En Dynamic Devs estamos buscando a un AI Engineer con experiencia en el desarrollo de agentes inteligentes basados en LLMs, RAG y automatización de procesos. Serás responsable de diseñar, construir e implementar soluciones que transformen requerimientos de negocio en agentes accionables, confiables y escalables.

Job source: getonbrd.com.

Funciones del cargo

  • Desarrollar agentes inteligentes basados en LLMs para casos de uso corporativos.
  • Implementar RAG (Retrieval-Augmented Generation) para acceso controlado a conocimiento y datos internos.
  • Diseñar y estructurar prompts, roles, límites operativos y flujos de interacción entre agentes y usuarios.
  • Realizar ajustes de modelos (fine-tuning ligero, prompt tuning o adapters), evaluación y optimización según el caso de uso.
  • Automatizar procesos mediante agentes orientados a análisis, validación, generación de contenido y mejora continua.
  • Optimizar costo, tiempos de respuesta y performance en pipelines de IA.
  • Construir y mantener pipelines CI/CD para modelos y agentes.
  • Realizar pruebas funcionales y de seguridad orientadas a soluciones de IA.
  • Trabajar con equipos de producto, seguridad, arquitectura y DevOps para asegurar integraciones estables y seguras.
  • Traducir requerimientos de negocio en especificaciones técnicas y prototipos funcionales.

Requerimientos del cargo

  • +3 años de experiencia en roles de desarrollo de software (Python, Node.js, Go, Java o similar). y al menos 1 año trabajando con sistemas de IA/LLMs en entornos productivos o experimentales avanzados.
  • Experiencia construyendo soluciones con LLMs, embeddings y vector stores.
  • Conocimiento en RAG, diseño de prompts y agentes estructurados.
  • Experiencia con CI/CD y buenas prácticas de despliegue en entornos productivos.
  • Conocimiento en prácticas de calidad: testing, documentación, seguridad y control de versiones.

Tecnologías con las que trabajarás:

  • LLMs: OpenAI, Anthropic, Cohere, Mistral, Llama
  • RAG: Embeddings, pipelines de recuperación y bases vectoriales
  • Frameworks: LangChain, LlamaIndex, Semantic Kernel
  • Infraestructura: Docker, Kubernetes, CI/CD
  • Metodologías: Git, Jira/YouTrack, metodologías ágiles

Opcionales

  • Experiencia con LangChain, LlamaIndex o Semantic Kernel.
  • Experiencia en bases vectoriales (Pinecone, Weaviate, ChromaDB, Qdrant).
  • Experiencia en MLOps o LLMOps (monitorización, métricas, ajustes en producción).
  • Familiaridad con arquitectura de microservicios y APIs REST.
  • Comprensión de NLP, embeddings y métricas de evaluación de modelo

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Life insurance Dynamic Devs pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Education stipend Dynamic Devs covers some educational expenses related to the position.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3700 - 5800 Tiempo completo
AI / Machine Learning Lead
  • Krunchbox
  • Santiago (Hybrid)
Python Analytics Artificial Intelligence Machine Learning
Krunchbox is a retail analytics SaaS platform helping brands increase sell-through, prevent stockouts, and uncover lost revenue across major retailers. We are launching Krunchbox Reimagined — a modern, AI-enabled platform that moves beyond dashboards into predictive, prescriptive, and agent-driven decision support. Our AI/ML function is central to this transformation. As AI/ML Lead, you will shape and scale the applied AI strategy, guiding production-grade ML systems that directly drive customer value, including predictive analytics, agentic AI workflows, and customer-facing AI experiences (agents, chatbots, insights engines). You will collaborate with Product, Data Engineering, and the executive team to deliver measurable business impact.

Apply directly on the original site at Get on Board.

AI & ML Strategy

  • Define and execute Krunchbox’s applied AI roadmap aligned to commercial outcomes (sell-through lift, lost-sales recovery, forecast accuracy).
  • Identify where traditional ML, time-series forecasting, and LLM-based agents create value, and translate customer problems into scalable ML solutions embedded in the product.
  • Lead the design and deployment of predictive analytics, agentic AI workflows, and customer-facing AI experiences (agents, chatbots, insights engines).
  • Collaborate with Product, Data Engineering, and leadership to ensure AI initiatives drive measurable business results.

What you’ll own

  • Own end-to-end ML lifecycle: feature engineering, model training, evaluation, deployment, monitoring, and governance to ensure reliability and explainability.
  • Build production-grade models for demand forecasting, lost-sales estimation, stockout risk, inventory optimization, and anomaly detection, incorporating external signals (weather, promotions, calendar effects).
  • Design and implement agentic AI workflows that monitor data conditions, generate proactive insights, and recommend actions (e.g., reorder, rebalancing, investigation).
  • Develop internal and customer-facing AI agents that reason over Krunchbox data, metadata, and business rules; build conversational AI experiences for insights and self-service analytics, plus internal support tooling.
  • Ensure safe integration of LLMs with structured retail data (POS, inventory, product/store master) and collaborate with Data Engineering on scalable pipelines (ClickHouse, Spark, cloud data stacks).
  • Provide technical leadership and mentorship to engineers and analysts as the AI function scales; shape AI-driven features and roadmap decisions in partnership with Product.

What we value

6+ years in applied machine learning / data science with a strong background in time-series forecasting, statistical modeling, feature engineering at scale, and deploying ML models to production. Proficiency in Python for ML and data pipelines, plus experience with large, messy real-world datasets. Ability to explain complex models to non-technical stakeholders. Desirable: experience with retail, supply chain, or POS data; building LLM-powered systems or chatbots; familiarity with modern data stacks (ClickHouse, Spark, cloud data warehouses); exposure to MLOps, monitoring, model governance, and cloud orchestration. Startup or SaaS scale-up experience is a plus.

Benefits

  • Competitive compensation package and comprehensive health benefits.
  • Opportunity to lead and scale AI for a global SaaS platform.
  • Hybrid work model with a Chilean engineering hub; collaborative, in-person teamwork emphasis.
  • Direct, impactful role shaping the future of AI-powered retail analytics and supplier-retailer collaboration.
  • Supportive environment to own AI at the core of a revenue-driving product; potential for leadership growth within Krunchbox.

Relocation offered If you are moving in from another country, Krunchbox helps you with your relocation.
Partially remote You can work from your home some days a week.
Computer provided Krunchbox provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 3500 Tiempo completo
Senior AI Engineer
  • Niuro
Python Virtualization Amazon Web Services Docker
Niuro connects projects with elite tech teams to deliver cutting-edge technological solutions for leading U.S. companies. As part of our AI-focused initiatives, you’ll join a global team building autonomous, agent-based AI systems and maintaining production-grade AI services. You will work on industrial data projects that demand high reliability, scalability, and robust operational practices. The role emphasizes collaboration with core engineers, product, and leadership to ensure AI systems significantly improve business outcomes while staying aligned with strategic goals. This position offers ongoing training, leadership development, and the opportunity to contribute to long-term, high-impact projects in a fully remote environment.

Job opportunity on getonbrd.com.

What You’ll Do

  • Design, build, and improve AI-driven systems, including agent-based workflows, to solve real-world problems.
  • Hands-on debugging, refactoring, and stabilizing existing AI/LLM systems in production to reduce debt and improve reliability.
  • Develop and integrate AI capabilities through REST APIs and service-oriented architectures (e.g., FastAPI or equivalent).
  • Deploy, monitor, and operate AI services in AWS, ensuring performance, cost-efficiency, and security.
  • Collaborate with engineers to address technical debt, optimize pipelines, and enhance system observability.
  • Communicate progress, risks, and trade-offs clearly to stakeholders and leadership.

Requirements

  • Fluent English (written and spoken).
  • Strong programming skills in Python.
  • Experience working with LLMs (e.g., OpenAI, Anthropic, Bedrock, or similar).
  • Ability to design and build APIs and services (FastAPI or equivalent).
  • Experience deploying and operating services in AWS or other cloud platforms.
  • Hands-on mindset and comfort working in messy, real-world systems.

Nice to Have

  • Experience with agent or multi-agent frameworks (LangGraph, LlamaIndex, LangChain, MCP, etc.).
  • Docker and containerized deployments (Docker, ECS, Gunicorn).
  • Familiarity with monitoring and observability (CloudWatch, Prometheus, Grafana).
  • Experience with semantic search, embeddings, or vector databases.
  • Knowledge of document processing or extraction tools (e.g., Textract).
  • Experience with testing (pytest, Playwright) and basic CI/CD workflows.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2800 - 3200 Tiempo completo
AI Solutions Architect
  • Coderslab.io
Java Python Go Virtualization
Acerca de Coderslab.io
Coderslab.io es una empresa enfocada en transformar y hacer crecer negocios a través de soluciones tecnológicas innovadoras. Formamos parte de una organización en expansión con más de 3.000 empleados a nivel global, con oficinas en América Latina y Estados Unidos. Trabajarás dentro de equipos diversos gracias a una cantera de talento tecnológico de primer nivel, involucrado en proyectos innovadores y desafiantes que acelerarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia.

Proyecto y contexto

El rol se integra en un área de Innovación e IA, orientada a diseñar la arquitectura técnica de soluciones de IA que sean viables, mantenibles y escalables a largo plazo. Buscamos convertir modelos y notebooks en servicios de software productivos, promoviendo prácticas de MLOps, pipelines de CI/CD

Applications are only received at getonbrd.com.

Funciones y responsabilidades

  • Diseño de Soluciones End-to-End: definir la arquitectura técnica de nuevos productos de IA, seleccionando tecnologías como RAG, Vector DBs y Agentes. Participar activamente en revisiones de código, definición de stack y resolución de problemas complejos junto al equipo. Actuar como mentor técnico de los AI Engineers.
  • Gestión de Células Híbridas: liderar la integración técnica con proveedores externos, auditar entregables y asegurar código de calidad, con documentación adecuada y adherencia a estándares internos para evitar dependencia total del proveedor.
  • Industrialización y MLOps en GCP: estandarizar el ciclo de vida de la IA, definir pipelines de CI/CD, re-entrenamiento automático y monitoreo de modelos productivos usando Vertex AI, Cloud Run y BigQuery.
  • Garantía Técnica: acompañar al equipo de desarrollo para validar que código e infraestructura en GCP cumplen con estándares de seguridad, costo y rendimiento.
  • Puente Ingeniería-IA: traducir modelos matemáticos en servicios de software, productivizar notebooks de Jupyter transformándolos en APIs de alto rendimiento.
  • Estandarización: definir patrones de diseño para consumo de LLMs (LangChain, LlamaIndex), gestión de prompts y pipelines de datos.
  • Optimización de Costos (FinOps): diseñar arquitecturas eficientes que equilibran rendimiento y presupuesto, optimizando tokens, GPUs e infraestructura cloud.
  • Innovación Práctica: evaluar tecnologías emergentes (agentes, RAG avanzado, modelos multimodales) y aplicarlas a casos de uso reales de retail, asegurando impacto claro en el negocio.

Qué buscamos

Perfil con formación en Ingeniería de Software o Arquitectura (experiencia previa como desarrollador Java/Python/Go) que evolucione hacia roles de Data/IA. Conocimiento sólido de Docker/Kubernetes y experiencia en embeddings/tensores. Experiencia comprobable implementando soluciones GenAI en producción (RAG, chatbots transaccionales, agentes) y un entendimiento real de las limitaciones de los modelos actuales. Dominio de la suite de datos e IA de Google Cloud (Vertex AI, BigQuery, Pub/Sub) en entornos productivos. Capacidad para llevar modelos desde notebooks experimentales a entornos de alto tráfico y experiencia con arquitecturas LLM (Gemini, OpenAI, Llama) y soluciones RAG. Preferible experiencia con APIs de audio/voz (STT/TTS).

Perfil orientado a la transparencia y a la trazabilidad del código: no se aceptan enfoques de “caja negra”. Visión sistémica para evaluar impactos desde la latencia en tienda física hasta la inferencia en la nube. Capacidad para traducir necesidades de negocio en sistemas escalables y mantenibles, con foco en seguridad, costos y performance. Combina pensamiento estratégico con capacidad para trabajar de forma colaborativa, liderar equipos y gestionar múltiples stakeholders (internos y externos).

  • RESIDENCIA EN BUENOS AIRES

Deseables

Experiencia adicional con APIs de audio/voz, competencia en gestión de productos de IA o experiencia en retail. Habilidad para comunicar conceptos complejos a audiencias técnicas y no técnicas. Mentalidad de aprendiz continuo y capacidad para priorizar en entornos dinámicos. Reservoir de soluciones innovadoras que puedan demostrar valor de negocio con métricas claras.

Beneficios y por qué sumarte

Ofrecemos participación en un proyecto estratégico para uno de los minoristas más grandes del mundo, con impacto directo en la experiencia de compra diaria de miles de personas.
Trabajarás en un entorno global, con colaboración entre equipos internos y proveedores, asegurando un equilibrio entre innovación y operación. Tendrás acceso a un conjunto de beneficios acorde a la empresa y a la región, con oportunidades de desarrollo profesional, mentoría de líderes en IA, y la posibilidad de dejar una huella tecnológica tangible en el negocio.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Docente de Programación y Redes Virtualizadas
  • Duoc UC
  • Viña del Mar (In-office)
Python Virtualization Back-end Education
Duoc UC es una institución de educación superior técnico profesional autónoma y católica con más de 50 años de historia y máxima acreditación institucional. En Viña del Mar, la Escuela Informática y Telecomunicaciones realiza formación integral para técnicos y profesionales que aportan al desarrollo económico de Chile. Nuestro equipo docente participa en proyectos de enseñanza-aprendizaje de vanguardia, integrando valores institucionales, innovación pedagógica y actualización tecnológica para preparar a los estudiantes para el mundo laboral actual.

Apply exclusively at getonbrd.com.

Funciones de la posición

  • Planificar, impartir y evaluar contenidos de la asignatura Programación y Redes Virtualizadas, siguiendo el modelo educativo institucional.
  • Diseñar estrategias de enseñanza que promuevan el aprendizaje significativo y el desarrollo de competencias técnicas en estudiantes de formación técnica profesional.
  • Orientar y acompañar a los estudiantes en su proceso formativo, facilitando prácticas, laboratorios y proyectos relacionados con redes, virtualización y desarrollo de software.
  • Participar en la revisión y actualización de contenidos curriculares, integrando nuevas tecnologías y metodologías de enseñanza.
  • Colaborar con equipos multidisciplinarios para la mejora continua de procesos de enseñanza y aprendizaje.
  • Contribuir a la evaluación institucional y al desarrollo profesional docente a través de la participación en actividades de capacitación y actualización tecnológica.
  • Asesorar a estudiantes en prácticas profesionales y proyectos de titulación cuando corresponda.

Perfil y requisitos

Es requisito contar con:

  • Formación: Ing. en Conectividad y Redes; Ing. En Telecomunicaciones; Ing. en Infraestructura TI; Ing. en Informática, o profesional ingeniero afín
  • Experiencia: 3 años en Administración Avanzada de Redes, experiencia en Infraestructura programable. Conocimientos en lenguaje de programación Python.
  • Disponibilidad: Martes: 19:01 a 20:20/ Jueves: 19:01 a 20:20
  • Otros requisitos: Deseable certificación CCNA o CCNA DevNet.

Perfil deseable

Se valorará formación adicional en educación o pedagogía, certificaciones en redes y/o virtualización (por ejemplo, certificados de proveedores de nube, CCNA/CCNP, etc.), experiencia en proyectos de investigación o innovación educativa, y disponibilidad para colaborar en iniciativas institucionales de mejora continua y desarrollo tecnológico. Se aprecia capacidad de adaptabilidad, comunicación efectiva y enfoque centrado en el aprendizaje de los estudiantes.

Beneficios y entorno

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $3600 - 4500 Tiempo completo
Senior Data Scientist (Santiago)
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Machine Learning
Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Find this job and more on Get on Board.

Lo que harás

  • Diseñar e implementar estrategias para optimizar el motor de verificación de antecedentes a gran escala, gestionando costo, tiempo de respuesta y precisión.
  • Desarrollar modelos de detección de anomalías y antifraude para garantizar la integridad de la plataforma antes de generar informes.
  • Definir la hoja de ruta técnica del producto principal, traduciendo objetivos empresariales en problemas matemáticos y soluciones en código.
  • Aplicar GenAI y LLMs para acelerar la exploración de datos, prototipar modelos y automatizar flujos de trabajo repetitivos.
  • Colaborar con equipos de ingeniería y producto en EE. UU. para alinear requisitos y entregar mejoras a escala global.
  • Participar en discusiones técnicas con partes interesadas de nivel VP, comunicando conceptos complejos de manera clara.

Qué debes traer

  • Inglés fluido (stakeholders en USA y todas las entrevistas técnicas serán en inglés)
  • Más de 5 años de experiencia en Data Science, Data Analytics o ML, preferentemente en entornos B2B SaaS o de rápido crecimiento.
  • Formación en Informática, Ingeniería o Ciencia de Datos; equivalente bienvenido.
  • Dominio sólido de Python y SQL; conocimiento de prácticas modernas de MLOps y CI/CD de datos.
  • Capacidad para comunicar ideas técnicas complejas en inglés y español.
  • Experiencia práctica con GenAI para exploración de datos y automatización de flujos de trabajo. Independencia, orientación a resultados, y habilidad para trabajar en entornos colaborativos y dinámicos.

Desirable

  • Valorable experiencia trabajando en centros de innovación, aceleración de proyectos a través de técnicas de optimización, y exposición a sistemas de verificación de identidad a gran escala.
  • Se apreciará formación adicional en ciencia de datos aplicada a ambientes regulados y cumplimiento.
  • Fuerte capacidad analítica, curiosidad técnica, y enfoque proactivo para resolver problemas complejos.

Beneficios

  • Trabajo híbrido en Santiago: 3 días en oficina (metro Tobalaba) y 2 días desde casa.
  • Contrato indefinido y salario competitivo en CLP.
  • Seguro médico, de vida y dental para ti y tu familia.
  • Bonificación anual de 3,000 USD para formación y desarrollo.
  • RSU
  • 5 días adicionales de vacaciones.
  • Beneficios de oficina, snacks y bebidas, y un entorno de crecimiento internacional.

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1000 - 1400 Tiempo completo
Data Analyst
  • Coderslab.io
  • Lima (Hybrid)
HTML5 Python Data Analysis SQL

En CodersLab, una empresa de software, estamos creciendo en Latinoamérica. Por eso buscamos un Data Analyst.

Queremos que te unas a nuestro equipo como Data Analyst para ayudarnos a desarrollar aplicaciones móviles. Aquí trabajarás en proyectos desafiantes y tendrás oportunidades de crecer en un ambiente colaborativo.

Tus responsabilidades

  • Desarrollar funcionalidades de gestión de canal con Python y HTML5.
  • Documentar funcionalmente los desarrollos.
  • Recopilar y limpiar datos de distintas fuentes (bases de datos, redes sociales, hojas de cálculo, etc.). Asegurarte de que sean de calidad, corrigiendo errores y eliminando inconsistencias.
  • Analizar datos usando estadísticas y otras herramientas para encontrar relaciones, tendencias y patrones.
  • Interpretar los resultados de tus análisis para entender su significado y cómo pueden ayudar a tomar mejores decisiones.
  • Comunicar tus hallazgos de forma clara. Presentarás los resultados en informes, dashboards y gráficos para el equipo y otras partes interesadas.
  • Identificar riesgos y oportunidades: Buscar tendencias, posibles problemas y formas de crecer para la empresa.
  • Apoyar la toma de decisiones: Ayudar a tomar decisiones clave en áreas como ventas, inventario y gestión de servicios.
  • Crear informes y dashboards: Diseñar informes y paneles interactivos que se actualicen solos para mantener a todos informados.

Lo que buscamos en ti

Necesitas al menos 2 a 3 años de experiencia.

  • Formación en sistemas o carreras afines.
  • Manejo de SQL Server.
  • Manejo de Python.
  • Conocimiento de BigQuery.
  • Conocimiento de Gitlab.
  • Experiencia con ETLs.
  • Conocimiento de HTML5.
  • Experiencia en cualquier sector es bienvenida, pero valoramos si la tienes en el sector financiero.

Condiciones

Modalidad de contratación: Contrato por honorarios
Duración del proyecto: 6 meses
Modalidad: Trabajo híbrido (3 días a la semana en la oficina)

VER TRABAJO POSTULAR VÍA WEB