No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

$$$ Tiempo completo
Cybersecurity Senior Consultant - Remote
  • Tarlogic
  • 🇨🇱 Chile - Remoto 🌎
Full Time eventos Remoto análisis

En Tarlogic somos especialistas en ciberseguridad y ciberinteligencia. Una empresa de ciberseguridad que presta servicios de última generación para proteger las infraestructuras y aplicaciones de grandes compañías y multinacionales.

Durante más de una década hemos prestado nuestros servicios a empresas de todo el mundo y hemos sido reconocidos como una de las empresas con mayor ritmo de crecimiento de Europa por el Financial Times durante tres años consecutivos.

Pero no solo somos en eso distintos; en Tarlogic estamos comprometidos con el desarrollo de políticas que integren la igualdad de trato y oportunidades entre todas las personas. Por ello, impulsamos medidas para lograr la igualdad efectiva y contribuir a la eliminación de cualquier discriminación, desde antes incluso de conocerte, desde el principio.

Además, aunque contamos con sedes en Madrid y Santiago de Compostela, el 100% de nuestra plantilla teletrabaja y hemos impulsado un gran número de medidas de flexibilidad, conciliación y beneficios sociales.

Descripción de la oferta

En Tarlogic encontrarás un entorno donde la excelencia técnica es una prioridad. Trabajarás en proyectos de impacto a través de servicios avanzados como análisis de seguridad, test de intrusión y auditorías técnicas. Y además, podrás disfrutar de condiciones pensadas para reforzar y potenciar tu bienestar y desarrollo profesional.

Aquí no solo ejecutarás tareas: tendrás la oportunidad de aprender, investigar, crecer y dejar tu huella en cada proyecto, mientras nos encargamos de que tengas todo lo necesario para avanzar en tu carrera.

Nuestra esencia: La calidad y la innovación son pilares fundamentales en todo lo que hacemos. Trabajamos con los estándares y metodologías más reconocidos a nivel internacional, utilizando tecnologías de vanguardia para mejorar la identificación y mitigación de riesgos, amenazas y vulnerabilidades.

Te unirás al equipo de Delivery de Ciberseguridad para:

Ejecutar auditorías de seguridad avanzadas en aplicaciones web y móviles complejas, aplicando metodologías como OWASP y OWASP Mobile.

Realizar test de intrusión avanzados: externos, internos, sobre Active Directory y entornos de red, con evasión de EDRs.

Participar en proyectos de Hacking Ético: redes Wi‑Fi, ejercicios de ingeniería social, OSINT, etc.

Documentar pruebas y recopilar evidencias clave.

Redactar informes técnicos y realizar presentaciones de resultados.

Participar en la remediación de vulnerabilidades, ofreciendo recomendaciones y realizando pruebas de validación.

Colaborar con Project Managers y el equipo en la evolución del trabajo y la mejora continua de los proyectos.

Participar en charlas internas y formaciones para compartir y adquirir nuevo conocimiento.

Contribuir al desarrollo de herramientas propias y a los proyectos de I+D del equipo.

Asistir a eventos del sector y mantenerse actualizado sobre tendencias y nuevas amenazas.

En Tarlogic, trabajar en proyectos que te desafían, aprender y crecer mientras disfrutas del equilibrio entre vida personal y profesional no son solo palabras: es lo que vivimos cada día.

Tu tiempo importa. Podrás organizar tu semana en 4 o 5 días, disfrutar de flexibilidad horaria real, jornada intensiva los viernes y durante el verano, 24 días de vacaciones más 6 festivos de libre elección y el día de tu cumpleaños libre.

Buscamos tu desarrollo profesional. Tendrás formación continua, acceso a certificaciones, clases de inglés y presupuesto para acudir a congresos o eventos del sector. Además, contarás con un plan de carrera con objetivos definidos y seguimiento individualizado, pensado para que tu crecimiento sea claro y medible.

Queremos que encuentres estabilidad y bienestar. Contrato indefinido, salario competitivo desde 44.000€ más bonus semestral, trabajo 100% remoto con acceso a nuestras oficinas en Santiago y Madrid, plus de teletrabajo y retribución flexible (tarjeta restaurante, guardería, transporte, seguro médico).

¿Cómo será el proceso de selección?

Queremos que descubras cómo es trabajar en Tarlogic desde el primer momento. El proceso será online y consta de:

1. Entrevista con HR en la que te explicaremos más información sobre Tarlogic y la vacante.

2. Entrevista técnica en la que el equipo podrá valorar tus conocimientos técnicos y tendréis la oportunidad de conoceros.

¿A quién buscamos?

  • Una persona apasionada por la ciberseguridad, siempre dispuesta a aprender, perfeccionarse y compartir conocimientos con el equipo.
  • Alguien con habilidades técnicas sólidas y la capacidad de comunicarse eficazmente con clientes y compañeros.

Requisitos mínimos:

Mínimo 4 años de experiencia realizando auditorías de seguridad, hacking web, móvil e infraestructura.

Amplios conocimientos de redes y su funcionamiento avanzado.

Experiencia sólida en evasión de mecanismos EDR.

Dominio en hacking de aplicaciones web y móviles (OWASP y OWASP Mobile).

Experiencia en hacking de infraestructura: redes Wi‑Fi, Active Directory, entornos internos.

Habilidades avanzadas en scripting (Python, Bash, PowerShell, etc.), con capacidad para adaptar y modificar scripts en distintos lenguajes.

  • Capacidad para trabajar en equipos mixtos y buena comunicación.

Requisitos deseables:

  • Experiencia en revisiones de seguridad cloud(aparte de AWS y Azure).
  • Experiencia en ejercicios de intrusión física.
  • Experiencia en ejercicios en redes OT.
  • Experiencia en ejercicios de ATM(cajeros) y dispositivos(enfoques Hardware Hacking).
  • Certificaciones en ciberseguridad ofensiva (OSCP, BSCP, eWPTX, etc.).

Participación activa en la comunidad de seguridad: publicaciones, charlas, CTFs o contribuciones a herramientas open‑source.

Conocimiento de MITRE ATT&CK y metodologías de Red Teaming.

  • Experiencia en empresas de servicios de ciberseguridad y liderazgo técnico en equipos de hacking.
#J-18808-Ljbffr
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2200 - 2700 Tiempo completo
Cloud Engineer
  • ARKHO
JavaScript Python Agile Front-end
ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA, ML y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services, con foco estratégico en la generación de soluciones usando tecnología en la nube. Somos obsesionados por lograr los objetivos propuestos y tenemos un especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!

This job offer is available on Get on Board.

🎯 Objetivo del rol

Participar activamente en el diseño, construcción y operación de soluciones en la nube sobre AWS, asegurando arquitecturas escalables, seguras y eficientes, aplicando experiencia en automatización, infraestructura como código, contenedores y CI/CD para impulsar la mejora continua y la confiabilidad operativa; siendo además un referente técnico que colabora estrechamente con equipos de desarrollo, datos y producto, contribuyendo a la estandarización de entornos cloud, la optimización de despliegues y la adopción de capacidades modernas que habilitan soluciones empresariales robustas y de alto impacto.

🏹 Perfil del Archer

Funciones Principales:

  • Diseñar, implementar y mantener arquitecturas en la nube utilizando servicios AWS (EC2, S3, IAM, CloudWatch, Lambda, RDS, VPC, entre otros).
  • Desplegar y administrar aplicaciones utilizando contenedores y orquestadores, idealmente Kubernetes (EKS), aplicando buenas prácticas de resiliencia y escalabilidad.
  • Implementar pipelines CI/CD (GitLab, Jenkins o GitHub Actions) para automatizar procesos de integración, pruebas y despliegue continuo.
  • Desarrollar automatizaciones y herramientas auxiliares utilizando Python, Bash o Node.js para acelerar flujos operativos y mejorar la eficiencia.
  • Participar en la administración de infraestructura mediante IaC (Terraform o AWS CDK), asegurando trazabilidad, control de versiones y procesos reproducibles.
  • Implementar estrategias de monitoreo, observabilidad y logging (Prometheus, Grafana, CloudWatch Logs) que permitan asegurar la continuidad operacional de los servicios.
  • Colaborar con equipos de desarrollo Fullstack para asegurar integraciones fluidas entre frontend, backend y componentes cloud.
  • Asegurar la adopción de buenas prácticas de seguridad, control de acceso, gestión de secretos y cumplimiento de estándares.
  • Apoyar en la definición técnica, estimaciones y planificación de iniciativas dentro de marcos ágiles.
  • Documentar procesos, arquitecturas y buenas prácticas, promoviendo cultura de aprendizaje y excelencia técnica.

Requisitos

En ARKHO valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:

  • Título profesional de Ingeniería en Computación, Ingeniería en Informática, Ingeniería de Sistemas o carrera afín.
  • Al menos 3 años de experiencia trabajando en entornos cloud, preferentemente sobre AWS.
  • Experiencia en administración y despliegue de aplicaciones utilizando contenedores (Docker) y herramientas de orquestación, idealmente Kubernetes (EKS).
  • Conocimientos sólidos en CI/CD para la automatización de flujos de integración y entrega continua.
  • Experiencia con infraestructura como código (Terraform o AWS CDK).
  • Experiencia con Infrastructure as Code: Terraform o AWS CDK
  • Experiencia en backend con Python y Node.js, tanto para automatización como para servicios complementarios.
  • Conocimientos en tecnologías de desarrollo frontend que se integran al ecosistema cloud: React y TypeScript.
  • Buen entendimiento de arquitecturas escalables, resilientes y modernas.

🌟 Beneficios del Archer

En ARKHO fomentamos una cultura de aprendizaje continuo, impulsamos la innovación tecnológica y promovemos un entorno de trabajo flexible, inclusivo y respetuoso, que valora tanto el desarrollo profesional como el bienestar personal.

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)
💰 Aguinaldos
🧘‍♀️ ARKHO Open Doors

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 3000 Tiempo completo
Ingeniero DevOps para Lectus.Org
  • Phaway
  • Santiago (Hybrid)
Python Django DevOps Virtualization

Phaway Tech, el brazo tecnológico de Fundación Phaway, desarrolla herramientas de alto impacto social, enfocadas en mejorar la gestión educativa a escala. Actualmente estamos buscando DevOps para nuestra plataforma lectus.org, que busca modernizar la gestión de bibliotecas escolares en Chile y acercar la lectura a miles de estudiantes. Además de Lectus, próximamente lanzaremos nuevos proyectos enfocados en mejorar la educación.

Official job site: Get on Board.

Funciones principales

  • AWS: Mantener y mejorar nuestra infraestructura en AWS (ECS, S3, RDS PostgreSQL, OpenSearch), y optimización de costos.
  • Diseñar, implementar y mantener pipelines CI/CD con GitHub Actions.
  • Gestionar entornos de staging y producción.
  • Supervisar y mejorar el monitoring y logging (New Relic).
  • Colaborar con el equipo backend (Python/Django) para asegurar despliegues estables y escalables.
  • Participar en la evolución técnica general del ecosistema Phaway Tech.

Descripción

  • Experiencia demostrada trabajando como DevOps o rol similar.
  • Manejo de AWS (ECS, S3, RDS, OpenSearch).
  • Experiencia con CI/CD, idealmente GitHub Actions.
  • Conocimientos de Docker y despliegue de microservicios.
  • Monitoreo y logging (New Relic u otras herramientas equivalentes).
  • Buen entendimiento de redes, seguridad e IAM.
  • Familiaridad con Python/Django (deseable).
  • Interés por proyectos con impacto social real.

Requisitos deseables

  • Conocimientos avanzados en arquitectura de soluciones en la nube, experiencia con OpenTelemetry, experiencia en seguridad de AWS y automatización de incidentes.
  • Capacidad para trabajar en entornos dinámicos, orientación a resultados y habilidad para comunicar decisiones técnicas a stakeholders no técnicos.

Beneficios

  • Ser parte del desarrollo del sistema operativo de la lectura en Chile.
  • Oportunidad de construir tecnología con impacto directo en miles de estudiantes.
  • Equipo ágil, cercano y con visión de largo plazo.
  • Oportunidades de crecimiento dentro de Phaway Tech mientras se abren nuevos proyectos.
  • Si te motiva usar tu talento para transformar la educación, te invitamos a ser parte de nuestro equipo (proceso de selección interno, sin incluir información de contacto aquí).

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Integrador (DevOps)
  • BLUE SMILE TECHNOLOGY
  • Santiago (In-office)
JEE Git SVN Linux
En BLUE SMILE TECHNOLOGY, una empresa global y visionaria líder en la transformación digital, contribuimos a que nuestros clientes crezcan de forma sostenible mediante soluciones tecnológicas avanzadas. Nuestra área tecnológica está orientada a la integración y gestión de sistemas multicapa que soportan plataformas JEE críticas en entornos empresariales, garantizando ambientes robustos y confiables para producción, certificación e integración, lo que facilita la innovación continua y la entrega de valor en las organizaciones donde intervenimos.

Apply to this posting directly on Get on Board.

Funciones y Responsabilidades

El Ingeniero de Integración de Sistemas JEE será responsable de instalar, configurar y administrar aplicaciones en plataformas multicapa, especialmente en entornos pre-productivos, asegurando la correcta operación en los tres ambientes principales: Integración, Certificación y Producción.
Entre sus responsabilidades se incluyen:
  • Planificación y ejecución de despliegues de aplicaciones en plataformas middleware como JBoss y WebLogic.
  • Gestión de la integración continua mediante el uso de herramientas CI/CD como Jenkins, Bamboo, Maven o TeamCity.
  • Administración y soporte de contenedores y orquestación (Docker, Kubernetes, Tanzu, EKS).
  • Configuración y mantenimiento de ambientes cloud (AWS, Azure), asegurando su disponibilidad y rendimiento.
  • Automatización de tareas operativas mediante scripting en Linux (BASH u otros) y herramientas como Ansible.
  • Colaborar con equipos multidisciplinarios para la resolución proactiva de problemas técnicos y la mejora continua.
  • Garantizar la seguridad y control de versiones utilizando sistemas de control de código fuente como Git/GitLab o SVN.
  • Interpretar documentación técnica y especificaciones en inglés técnico.

Requisitos y Perfil del Candidato

Formación: Ingeniero Civil o en Ejecución en Computación e Informática o carreras afines.
Experiencia: Mínimo 3 años desde la obtención del título con experiencia comprobable en integración y gestión de sistemas multicapa sobre plataformas JEE, y en administración de entornos con al menos tres ambientes diferenciados (Integración, Certificación, Producción).
Certificaciones: Se valorará haber obtenido al menos 3 certificaciones entre las siguientes áreas:
  • Administración de contenedores y orquestación (por ejemplo, Certified Kubernetes Administrator - CKA).
  • Plataformas middleware como JBoss y WebLogic.
  • Herramientas de automatización y CI/CD (Jenkins, GitLab, Ansible).
  • Certificaciones en nubes públicas como AWS o Azure.
  • Certificaciones en sistemas operativos Linux (por ejemplo, Red Hat Certified Engineer - RHCE).
Conocimientos Técnicos Requeridos (mínimo 4 de 8):
  • Instalación, configuración y soporte en plataformas middleware WebLogic y JBoss.
  • Manejo de contenedores y orquestación con Docker y Kubernetes (Tanzu, EKS).
  • Automatización y scripting en Linux (BASH u otros) con Ansible.
  • Administración de herramientas CI/CD como Jenkins, Bamboo, Maven, TeamCity.
  • Control de versiones usando Git/GitLab y SVN.
  • Sistemas operativos Linux sólidos, preferentemente Red Hat o similar.
  • Gestión y administración de entornos cloud (AWS, Azure).
  • Comprensión y lectura de documentación técnica en inglés.
Aptitudes del candidato: Proactividad en la resolución de incidencias técnicas, orientación colaborativa y trabajo en equipo, adaptabilidad a entornos dinámicos y enfoque en entregas continuas y eficientes.

Conocimientos y Habilidades Deseables

  • Experiencia avanzada en gestión de contenedores y plataformas de orquestación como Docker y Kubernetes.
  • Administración práctica de ambientes cloud (Azure, AWS) incluyendo despliegues, monitoreo y optimización.
  • Conocimientos en desarrollo full stack, incluyendo servicios REST y SOAP, y frameworks de UI.
  • Gestión y uso de API’s mediante herramientas como Swagger y OpenAPI Specification (OAS).
  • Administración y configuración de servidores Apache HTTP para aplicaciones web.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 2300 Tiempo completo
DevOps Semi Senior
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Git DevOps Virtualization Amazon Web Services
Genesys Tecnologías de Inform. SpA es una empresa de desarrollo de software y servicios TI con más de 30 años de experiencia en el mercado latinoamericano. Nuestro objetivo es acompañar a las empresas en su Transformación Digital, brindando soluciones en desarrollo de software, monitoreo y mantenimiento de plataformas, IA, QA y servicios de outsourcing. Buscamos incorporar un Ingeniero DevOps Semi Senior para fortalecer nuestro equipo técnico en un entorno híbrido entre Concepción y Santiago, enfocado en garantizar la disponibilidad y rendimiento de nuestra plataforma web, APIs y servicios asociados, a través de prácticas de monitoreo, automatización y mejora continua.

Apply to this job opportunity at getonbrd.com.

Principales funciones

  • Implementar, configurar y mantener herramientas de monitoreo y alertas para todos los componentes de la plataforma web.
  • Monitorear el rendimiento de la infraestructura en la nube (AWS), APIs, servicios backend y aplicaciones frontend para garantizar alta disponibilidad y rendimiento.
  • Detectar, diagnosticar y resolver incidentes de disponibilidad o rendimiento de forma oportuna.
  • Colaborar con equipos de desarrollo, infraestructura y soporte para optimizar entornos de despliegue y operación.
  • Automatizar tareas de monitoreo, despliegue y gestión de incidentes cuando sea posible, promoviendo prácticas CI/CD.

Requisitos y perfil deseado

Buscamos un Ingeniero DevOps Semi Senior con al menos 2-3 años de experiencia en roles DevOps. Se valora sólida experiencia en servicios Cloud AWS y en monitoreo de plataformas web (Grafana, Prometheus, Datadog, New Relic u otras herramientas similares). Debe poseer conocimientos en CI/CD, Docker y control de versiones (Git). Capacidad para trabajar de forma colaborativa con equipos multidisciplinarios y para resolver problemas con pensamiento crítico y enfoque en la calidad.
Competencias clave: compromiso con la excelencia operativa, proactividad, buenas habilidades de comunicación, capacidad de trabajar en entornos dinámicos, orientación a la resolución de problemas y capacidad para gestionar múltiples prioridades. Se valorará experiencia en automatización de pipelines y experiencia en entornos híbridos o multi-nube.

Perfil deseable

Conocimientos adicionales en orquestación (Kubernetes), scripting (Python, Bash) y experiencia trabajando en proyectos de fábrica de software o outsourcing. Familiaridad con herramientas de gestión de incidentes, gestión de cambios y buenas prácticas de seguridad en la nube. Disponibilidad para operar en un entorno con matriz y coordinación entre sedes en Concepción y Santiago.

Beneficios

Ofrecemos contrato por proyecto con estabilidad y condiciones claras en un entorno laboral dinámico y colaborativo, enfocado en desarrollo profesional. Formarás parte de una empresa consolidada en Latinoamérica, con más de tres décadas de experiencia y un equipo multidisciplinario. Contamos con comunicación diaria con nuestra matriz y otras operaciones, lo que facilita la colaboración y el apoyo técnico. En Genesys, valoramos el talento y la innovación, y te acompañamos en tu crecimiento profesional. 😊

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
DevOps Engineer – Proyecto (Híbrido)
  • BC Tecnología
  • Santiago (Hybrid)
Linux DevOps Continuous Deployment Kubernetes
BC Tecnología es una consultora de TI que acompaña a clientes de servicios financieros, seguros, retail y gobierno en proyectos de infraestructura, desarrollo de software y outsourcing de personal. En este rol te incorporarás a un proyecto estratégico dentro de nuestra práctica de DevOps, trabajando con equipos multidisciplinarios para entregar soluciones escalables y seguras en entornos cloud. Nuestro foco es la excelencia técnica, la agilidad y la satisfacción del cliente, con un marco de trabajo colaborativo y oportunidades de crecimiento profesional.
Como parte del equipo, tendrás la oportunidad de contribuir a la automatización de infraestructuras, la gestión de entornos cloud y la madurez de pipelines de CI/CD, apoyando a clientes en su transformación digital y en la operación de entornos críticos.

Apply exclusively at getonbrd.com.

Funciones y responsabilidades

  • Gestionar infraestructura en la nube (AWS, GCP u OCI) y redes virtuales, asegurando disponibilidad, escalabilidad y seguridad.
  • Diseñar, implementar y mantener pipelines de CI/CD con enfoque en automatización y reproducibilidad.
  • Configurar y administrar contenedores (Kubernetes) y entornos Linux, optimizando rendimiento y costos.
  • Trabajar con Terraform para aprovisionamiento de infraestructura multi-ambiente y gestión de estado.
  • Monitorear, registrar y automatizar respuestas a incidentes, garantizando alta disponibilidad y recuperación ante desastres.
  • Participar en revisiones de arquitectura y colaborar con equipos de desarrollo para entregar soluciones eficientes.
  • Apoyar en prácticas de seguridad, cumplimiento y gestión de cambios dentro de proyectos de clientes.

Requisitos y perfil deseado

Buscamos un profesional con al menos 3 años de experiencia comprobable en DevOps, capaz de gestionar infraestructuras en la nube y de liderar iniciativas de automatización. Debe demostrar dominio técnico en Terraform, Kubernetes y GitLab, así como experiencia sólida en automatización, CI/CD y despliegue de infraestructuras. Se valorarán conocimientos en contenedores, Linux y buenas prácticas de seguridad y monitoreo. Buscamos alguien proactivo, orientado a la entrega de valor, con habilidad para comunicarse de manera clara con equipos técnicos y de negocio. Se valorarán certificaciones relevantes y experiencia en entornos regulados o financieros.

Habilidades deseables

Experiencia en entornos multi-nube, herramientas de observabilidad (Prometheus, Grafana, ELK), experiencia en scripting (Bash, Python) y gestión de costos en la nube. Capacidad para trabajar de forma autónoma, con mentalidad de mejora continua, y habilidades de colaboración para trabajar en equipos ágiles y multiculturales.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
QA Automatizador – Latam (, Proyecto)
  • BC Tecnología
JavaScript Java Python Git
En BC Tecnología somos una consultora de TI con experiencia en administrar portafolios, desarrollar proyectos y brindar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un QA Automatizador para LATAM, orientado a liderar iniciativas de automatización, promover cultura Shift Left y participar en pipelines CI/CD para garantizar QA continua en ecosistemas modernos. Colaborarás con equipos multidisciplinarios para entregar soluciones de software de alta calidad y mejorar procesos de pruebas a lo largo del ciclo de desarrollo.

Apply directly from Get on Board.

QA Automatizador – LATAM (Remoto, Proyecto)

  • Diseñar e implementar frameworks de automatización robustos para pruebas funcionales, de regresión, smoke y end-to-end (E2E).
  • Automatizar pruebas sobre microservicios, APIs y UI, asegurando cobertura adecuada y mantenimiento de las suites en pipelines CI/CD.
  • Gestionar ambientes con Docker y Kubernetes para entornos de pruebas consistentes y escalables.
  • Coaching al equipo de QA, revisión de pull requests y promoción de prácticas de calidad desde etapas tempranas (Shift Left).
  • Colaborar con equipos de desarrollo y DevOps para optimizar pipelines de integración y entrega continua (CI/CD) y mejorar la calidad del producto.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en automatización de pruebas y un historial comprobable en entornos modernos. Debe dominar herramientas como Playwright, Cypress, Selenium, Postman y frameworks como Robot Framework o similares. Experiencia con REST APIs, pruebas en contenedores (Docker) y orquestación (Kubernetes) es imprescindible. Conocimientos en Java, JavaScript, TypeScript, Python o Bash para scripting y mantenimiento de pruebas. Familiaridad con herramientas de CI/CD (GitHub Actions, Jenkins, GitLab CI, Bitbucket) y gestión de código en repositorios (Git). Capacidad para comunicarse efectivamente en español e inglés técnico, y habilidades para trabajar en entornos dinámicos y orientados a resultados. Se valorarán experiencia en AWS o tecnologías cloud y capacidad de liderazgo técnico dentro de equipos de QA.

Requisitos deseables

Conocimientos en herramientas de testing de rendimiento y seguridad, experiencia en automatización en entornos multi-nube, certificaciones en calidad de software y familiaridad con metodologías ágiles. Capacidad para adaptar frameworks a nuevas tecnologías y promover una cultura de calidad y mejora continua. Se valorará experiencia en equipos que trabajan en sectores regulados y con alta exigencia de cumplimiento.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Docente de Introducción a Herramientas DevOps
  • Duoc UC
  • Santiago (In-office)
DevOps Virtualization Amazon Web Services Docker

Duoc UC Sede San Carlos de Apoquindo, Escuela de informática y Telecomunicaciones requiere contratar docentes para la asignatura de Introducción a Herramientas Devops con disponibilidad en jornada Diurna que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.
Es requisito contar con:

  • Formación: Se requiere un Ingeniero(a) en Informática, Ingeniero(a) Ejecución Informática o carrera afín.
  • Experiencia: con al menos 3 años de experiencia en desarrollo de proyectos implementados en DevOps en forma avanzada.
  • Disponibilidad: Jornada Diurna, los martes de 8:30 a 12:10 pm.
  • Otros requisitos: Es deseable que cuente con certificación en alguna nube. Las tecnologías mandatarias incluyen AWS, Azure, Docker.

Apply directly on Get on Board.

Funciones y responsabilidades

Duoc UC Sede San Carlos de Apoquindo, Escuela de informática y Telecomunicaciones requiere contratar docentes para la asignatura de Introducción a Herramientas Devops con disponibilidad en jornada Diurna que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Perfil y requisitos

Buscamos un(a) Ingeniero(a) en Informática, Ingeniero(a) Ejecución Informática o profesión afín, con al menos 3 años de experiencia trabajando en proyectos DevOps avanzados. Se requieren conocimientos en herramientas y prácticas de DevOps, incluidas plataformas de nube (AWS y/o Azure) y contenedores (Docker). El/la candidato(a) debe demostrar capacidad para planificar, enseñar y evaluar, con enfoque en el aprendizaje de estudiantes de educación superior técnica profesional.

Deseables

Certificación en alguna nube (AWS, Azure o equivalente) y experiencia adicional en orquestación (p. ej., Kubernetes). Deseable capacitación en tecnologías de automatización, pipelines y herramientas de infraestructura como código serán valorados. Interés por investigación educativa, innovación pedagógica y desarrollo de proyectos interdisciplinarios. Capacidad para trabajar de forma colaborativa con equipos pedagógicos y administrativos, manteniendo un enfoque orientado a resultados y al aprendizaje de calidad.

Beneficios y condiciones

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
DevOps Engineer / Cloud Engineer (Latam)
  • BC Tecnología
Python Linux DevOps Virtualization
BC Tecnología, una consultora de TI con experiencia en servicios, outsourcing y selección de profesionales, busca ampliar su equipo con un DevOps Engineer / Cloud Engineer para un proyecto inicial de 6 meses con posibilidad de extensión. El rol contribuirá a la estabilidad y rendimiento de plataformas en producción, trabajando en colaboración con Desarrollo y Seguridad, en un entorno de clientes de alto nivel y diversos sectores (finanzas, seguros, retail y gobierno).

Exclusive to Get on Board.

Funciones

  • Garantizar la disponibilidad, estabilidad y rendimiento de sistemas productivos.
  • Gestionar infraestructura como código y automatizar despliegues.
  • Administrar contenedores y clusters Kubernetes.
  • Implementar monitoreo y alertas (Prometheus, CloudWatch, Grafana).
  • Organizar respuestas a incidentes y participar en post-mortems para mejora continua.
  • Trabajar estrechamente con Desarrollo y Seguridad para optimizar la arquitectura.
  • Documentar runbooks y procedimientos operativos para soporte y escalamiento.

Requisitos y perfil

Ingeniería en Informática, Sistemas o similar. Mínimo 3 años en roles DevOps, Cloud u Operations. Sólido dominio de Linux/UNIX, redes y conceptos de seguridad. Experiencia en arquitecturas de alta disponibilidad y gestión de incidentes. Se valora experiencia con entornos en la nube (AWS, Azure, GCP) y herramientas IaC (Terraform, CloudFormation, Ansible). Conocimientos en contenedores (Docker) y orquestación (Kubernetes). Habilidades de scripting (Bash, Python; PowerShell deseable). Capacidad para trabajar de forma proactiva, con buena comunicación y enfoque colaborativo.

Deseables

Certificaciones relevantes en nube (AWS/Azure/GCP) y DevOps; experiencia en entornos regulados; experiencia en monitoreo avanzado (ELK, Datadog) y gestión de costos en la nube. Orientación a soluciones y capacidades de análisis para resolver incidentes de manera eficiente; habilidades de documentación y entrega de runbooks claros.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Senior Site Reliability Engineer
  • OpenLoop
  • Lima (Hybrid)
Python Go DevOps Continuous Integration

About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Applications: getonbrd.com.

About the Role

  • Cross-Functional Collaboration
    • Partner with engineering teams to improve system reliability and deployment practices
    • Engage with teams on SRE guidelines and best practices about automation and infrastructure
    • Work with security teams to implement secure, compliant infrastructure
  • Operational Excellence
    • Ensure 24/7 system availability and rapid incident response
    • Implement and maintain disaster recovery and business continuity plans
    • Lead efforts to increase automation, observability and monitoring
    • Skilled at performance tuning — identifying bottlenecks at infra, app, and network layers.
  • Security
    • Understanding of cloud security principles (least privilege, network segmentation, encryption at rest/in transit).
    • Familiarity with compliance frameworks (SOC 2, ISO 27001, GDPR, HIPAA) and how SRE supports them.
  • Cultural
    • Advocate for blameless culture and continuous improvement.
    • Collaborate closely with product and engineering to make reliability a shared responsibility.

Requirements

  • 4+ years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • Proven track record implementing large-scale, distributed systems
  • Strong background in AWS, particularly with serverless architecture and container orchestration
  • Solid understanding of observability, incident management, and system resilience best practices.
  • Strong proficiency in at least one programming language (Typescript, Python, Go, etc.).
  • Knowlegde of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK, Cloudformation)
  • Proficiency with monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, Jenkins, etc)
  • Understanding of database systems and performance optimization
  • English (C1/C2) fluency
  • Ability to translate technical concepts to non-technical audiences
  • Experience with agile methodologies and project management

Nice to have

Previous experience as a Fullstack Developer is a plus

Our Benefits

  • Formal employment (“Planilla”) under a Peruvian entity — all legal benefits in soles (CTS, Gratificaciones, etc.).
  • Full-time schedule: Monday–Friday, 9am–6pm.
  • Unlimited vacation days 🏖️ — yes, we mean it!
  • EPS healthcare (Rimac) covered 100%.
  • Oncology insurance (Rimac) covered 100%.
  • AFP retirement plan.
  • Coworking access in Miraflores, Lima — with free beverages, talks, bicycle parking, and amazing city views.
  • Company laptop and tools provided.

Life insurance OpenLoop pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage OpenLoop pays or copays health insurance for employees.
Retirement plan OpenLoop pays or matches payment for plans such as 401(k) and others.
Free car parking You can park your car for free at the premises.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
Beverages and snacks OpenLoop offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 3600 Tiempo completo
Technical Lead – Cloud Computing & Infrastructure AWS / GCP
  • Coderslab.io
Virtualization Amazon Web Services Docker Kubernetes

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Technical Lead – Cloud Computing & Infrastructure (AWS / GCP) to join our team and help drive our mission forward.

Applications are only received at getonbrd.com.

Funciones del cargo

General Purpose:
Lead the multi-cloud (AWS and GCP) computing strategy at Payless, optimizing infrastructure and enabling new capabilities for the omnichannel vision. The role aims to enhance customer centricity and improve the experience across both physical stores and e-commerce, ensuring resilience, cost efficiency, and business acceleration.

Key Responsibilities:

  • Design and evolve cloud-native architectures in AWS and GCP.
  • Implement best practices for cost optimization, security, and performance.
  • Enable new cloud capabilities to support the omnichannel strategy.
  • Lead the adoption of cloud-native development and deployment models (DevOps, Infrastructure as Code).
  • Collaborate with business, product, and IT teams to align infrastructure with corporate objectives.

Requerimientos del cargo

Technical Requirements:

  • Proven experience with AWS and GCP.
  • Knowledge of Kubernetes, Docker, Terraform/CloudFormation, and Infrastructure as Code (IaC).
  • Experience designing scalable, secure, and highly available architectures.
  • Advanced English proficiency.

Key Competencies:

  • Strategic thinking with a strong business vision.
  • Technical leadership and team management.
  • Clear and effective communication skills.

Condiciones

Location: Remote LATAM
Working Hours: Miami time
Language Requirements: Advanced English and Spanish
Service Type: Service Provision – 160 hours/month, Monday to Friday

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 3700 Tiempo completo
Staff Site Reliability Engineer (SRE)
  • Checkr
  • Santiago (Hybrid)
Ruby Python Linux Go

Checkr está creando una plataforma de datos para facilitar la toma de decisiones seguras y justas. Fundada en 2014, la tecnología innovadora y la sólida plataforma de datos de Checkr ayudan a los clientes a evaluar riesgos y garantizar seguridad y cumplimiento normativo para crear lugares de trabajo y comunidades de confianza. Checkr cuenta con más de 100.000 clientes, entre los que se incluyen DoorDash, Coinbase, Lyft, Instacart y Airtable. Como Staff Reliability Engineer , desempeñarás un papel crucial en la mejora de la confiabilidad de nuestros productos en nuestra misión de crear la plataforma de datos del futuro. Nuestro equipo de SRE centra su experiencia en ingeniería en fomentar la resiliencia, la escalabilidad y la eficiencia de los servicios. La persona que ocupe este puesto identificará los retos de ingeniería en toda la organización y sus servicios, dirigirá el desarrollo de soluciones innovadoras para resolverlos e impulsará su adopción.

Apply to this job through Get on Board.

Job functions

  • Colaborar e impulsar debates sobre arquitectura con una amplia gama de clientes, incluyendo operaciones, desarrolladores, arquitectos técnicos y ejecutivos.
  • Liderar la planificación de la hoja de ruta de fiabilidad y la ejecución de proyectos entre equipos para facilitar la ingeniería y ayudar a los clientes de Checkr.
  • Participar de forma proactiva en todos los equipos para fomentar la fiabilidad, la eficiencia y la escalabilidad del servicio.
  • Participar en un equipo de respuesta a incidentes interorganizacional, impulsando la mejora continua.
  • Resolver problemas complejos de producción en toda la pila, en lo que respecta al rendimiento, la disponibilidad y la calidad de los datos.
  • Diseñar, crear, enviar y mantener las bibliotecas, herramientas y patrones de observabilidad básicos que utilizan todos los equipos de ingeniería de Checkr.

Qualifications and requirements

  • Más de 10 años de experiencia en el sector de la ingeniería de software, incluidos más de 5 años de ingeniería para la fiabilidad, escalabilidad y eficiencia de los sistemas.
  • Gran dominio en el desarrollo de soluciones en Python (preferiblemente), GoLang o Ruby en entornos Linux.
  • Profundo conocimiento de los conceptos fundamentales de infraestructura y plataformas que sustentan las arquitecturas de microservicios, los sistemas asíncronos y las API remotas.
  • Sólidas habilidades de colaboración, documentación, comunicación y gestión de proyectos.
  • Competencia en el desarrollo y la operación de entornos de producción orientados al cliente en AWS o Azure utilizando soluciones como Kubernetes, Docker y Terraform.
  • Capacidad demostrada para establecer estándares de observabilidad de servicios y aprovechar plataformas y marcos como Datadog, Splunk, Grafana, Prometheus y OpenTelemetry.
  • Experiencia demostrada en la mejora de las prácticas de gestión de incidentes y en el impulso de la mejora continua.
  • Habilidades de liderazgo y pasión por la tutoría de ingenieros más jóvenes.
  • Experiencia en la adopción de plataformas en equipos de ingeniería, guiada por un enfoque de autoservicio y prioridad del producto.

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3500 - 4200 Tiempo completo
Senior DevOps Engineer
  • Checkr
  • Santiago (Hybrid)
Linux DevOps Virtualization Amazon Web Services

Checkr está creando una plataforma de datos para facilitar la toma de decisiones seguras y justas. Fundada en 2014, la tecnología innovadora y la sólida plataforma de datos de Checkr ayudan a los clientes a evaluar riesgos y garantizar seguridad y cumplimiento normativo para crear lugares de trabajo y comunidades de confianza. Checkr cuenta con más de 100.000 clientes, entre los que se incluyen DoorDash, Coinbase, Lyft, Instacart y Airtable. Como Senior DevOps, trabajarás en estrecha colaboración con nuestros equipos de plataforma para crear y ejecutar los componentes que impulsan Checkr. Permitirás que todos los equipos asuman responsabilidad colectiva de la confiabilidad, escalabilidad y rendimiento de su software. También guiarás a otros equipos en el ajuste de sus servicios, lo que se traducirá en una mayor solidez y eficiencia, garantizando que cada equipo pueda centrarse en crear un software superior respaldado por una infraestructura confiable, escalable y eficiente

Find this vacancy on Get on Board.

Job functions

  • Crear, mantener, optimizar y ampliar la infraestructura en la nube y local de Checkr.
  • Mejorar las operaciones y los procesos de infraestructura mediante la automatización y el uso de herramientas.
  • Optimizar los procesos de CI/CD y las herramientas de DevOps.
  • Depurar problemas de producción en todos los servicios y niveles de la pila.
  • Garantizar la escalabilidad y la seguridad de la infraestructura de Checkr.
  • Colaborar con los desarrolladores de aplicaciones para garantizar las mejores prácticas y el uso eficiente de la infraestructura.
  • Crear y fomentar relaciones de colaboración con otros equipos de ingeniería y líderes.
  • Planificar el crecimiento de la infraestructura de Checkr.

Qualifications and requirements

  • Licenciatura en Informática (o campo relacionado)
  • Más de 5 años de experiencia como ingeniero de DevOps o experiencia relacionada
  • Experiencia en el diseño de arquitectura técnica y la creación de una hoja de ruta estratégica para hacer realidad una visión técnica
  • Experiencia con Linux, Kubernetes, Terraform y AWS o Azure
  • Experiencia con contenedores y orquestación de contenedores
  • Conocimientos avanzados de TCP/IP, seguridad de aplicaciones web y HTTP/HTTPS
  • Tus planes de reversión son tan meticulosos como tus planes de implementación.
  • Experiencia en impulsar la adopción de plataformas con diversos equipos de ingeniería de productos, guiado por un enfoque de autoservicio y prioridad del producto.
  • Capacidad, disposición y deseo de orientar y mejorar a ingenieros de infraestructura con menos experiencia.
  • Pasión por la orientación al cliente y el establecimiento de relaciones con otros equipos.
  • Compromiso inquebrantable con la seguridad operativa y las mejores prácticas.

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $4000 - 6000 Tiempo completo
DevOps Engineer
  • Interviews Chat
JavaScript Python Linux DevOps

Interviews Chat es una plataforma de inteligencia artificial que ayuda a las personas a destacar en sus entrevistas de trabajo. Nuestro Interview Copilot escucha reuniones en vivo (Zoom, Google Meet, Teams, etc.) y ofrece respuestas y sugerencias en tiempo real, mientras que Interview Prep genera preguntas personalizadas para practicar. Estamos creciendo rápidamente y somos utilizados por miles de profesionales en todo el mundo.

Apply directly on Get on Board.

Job functions

  • Administrar y optimizar los despliegues en la nube (Vercel, AWS, GCP o similares).
  • Diseñar, mantener y mejorar pipelines de CI/CD para distintos entornos.
  • Supervisar el rendimiento del sistema y garantizar disponibilidad, escalabilidad y eficiencia de costos.
  • Implementar automatización de infraestructura (Terraform, Pulumi o similares).
  • Mantener configuraciones seguras y aplicar buenas prácticas de DevSecOps.
  • Colaborar con los desarrolladores para optimizar procesos de build y despliegue.

Qualifications and requirements

  • Experiencia en DevOps, infraestructura o ingeniería backend, o habilidades transferibles de roles similares.
  • Conocimiento sólido de CI/CD, Docker y plataformas en la nube (AWS, GCP o Vercel).
  • Familiaridad con funciones serverless y flujos modernos de despliegue.
  • Capacidad básica de scripting o programación (Bash, Python o JavaScript).
  • Curiosidad, iniciativa y atención al detalle.
  • Plus: experiencia con herramientas de monitoreo (Grafana, Prometheus, Datadog) o frameworks de IaC.

Conditions

Formarás parte de un equipo global con comunicación multilingüe, en una empresa que fomenta la colaboración internacional y ofrece la comodidad del trabajo desde casa. Equipo global y 100% remoto.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Arquitecto de Infraestructura
  • Lisit
Redis PostgreSQL SaaS Cybersecurity
En Lisit promovemos la creación, desarrollo e implementación de servicios de software orientados a la automatización y optimización, con un fuerte foco en la innovación y la transformación digital de nuestros clientes. Nuestro equipo diseña y despliega soluciones de IA conversacional y Pipelines de LLM para soportar procesos críticos de negocio, desde prototipos (POC) hasta producción y escalado comercial. El proyecto central implica la construcción de una infraestructura robusta, escalable y segura que soporte Flowise y otras plataformas de IA conversacional, garantizando rendimiento, disponibilidad y costos optimizados en todos los niveles de madurez: piloto, desarrollo, comercial inicial y producción. Trabajamos de forma 100% remota, con colaboraciones multidisciplinares y un enfoque práctico hacia resultados medibles para clientes.

This job offer is on Get on Board.

Perfil de Cargo

  • Diseñar, implementar y mantener la infraestructura tecnológica necesaria para soportar soluciones conversacionales basadas en IA, incluyendo Flowise y otras plataformas, garantizando disponibilidad, escalabilidad, seguridad, rendimiento y continuidad operativa.
  • Evaluación y diseño de infraestructura: analizar requerimientos técnicos, diseñar arquitecturas en nubes públicas (Azure, AWS, GCP), definir capacidad para Piloto, Desarrollo, Comercial Inicial y Producción, estimar recursos y diseñar topologías resilientes (HA, balanceo, redundancia).
  • Implementación y operación: provisionar recursos en Azure (principal) u otras nubes, desplegar servidores, workers, balanceadores, almacenamiento, BBDD y monitorización; configurar entornos Flowise / LLM gateways / assist pipelines; administrar contenedores (Docker/Kubernetes).
  • Gestión de bases de datos: diseñar, administrar y optimizar PostgreSQL y Azure SQL; implementar backups, réplicas, versionamiento, retención y failover.
  • Cache y mensajería: integrar Redis, gestionar cache de contexto, persistencia y colas de trabajo; diseñar procesos asincrónicos para alto throughput.
  • Storage y costos: diseñar almacenamiento escalable (Blob/S3), políticas de retención y costos; separar almacenamiento conversacional, logs y archivos anexos.
  • Seguridad: IAM/RBAC, protección de endpoints, rotación de tokens, seguridad de red (WAF, VNet, VPN), cifrado en tránsito y en reposo.
  • Observabilidad: monitoreo de logs, métricas y alertas; seguimiento de rendimiento, tiempos de respuesta y colas.
  • Optimización de costos: dimensionamiento eficiente, revisión continua de gastos, recomendaciones de right-sizing y proyección de crecimiento.
  • Colaborar con equipos multidisciplinarios para definir parámetros de escalamiento y asegurar la estabilidad y seguridad de entornos de IA.

Descripción

Buscamos un Arquitecto de Infraestructura con sólida experiencia en entornos de nube y plataformas IA para liderar la construcción de la infraestructura necesaria para soluciones conversacionales basadas en IA. El rol implica definir, desarrollar y mantener un stack tecnológico que permita escalar operaciones desde POC hasta producción. El candidato ideal debe poseer capacidad analítica, enfoque en seguridad y optimización de costos, además de habilidades de documentación y comunicación para colaborar con equipos multifuncionales. Se valorará experiencia previa en SaaS y herramientas conversacionales (Flowise) y un historial comprobable de gestión de infraestructuras complejas en entornos empresariales.

Requisitos Deseables

Experiencia de 4+ años administrando plataformas cloud, con conocimientos en bases de datos gestionadas, contenedores, redes e Infra as Code. Deseable experiencia previa en productos SaaS o herramientas de IA conversacional (Flowise). Formación en Ingeniería en Computación/Informática/Sistemas o equivalente. Habilidades de comunicación, documentación clara y capacidad de trabajar en equipos multidisciplinarios. Nivel avanzado en Azure (deseable) y experiencia en AWS/GCP es un plus.

Beneficios

100% remoto

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1300 - 1500 Tiempo completo
Site Reliability Engineer (SRE)
  • RebajaTusCuentas.com
DevOps Virtualization Docker Continuous Deployment

Somos una empresa financiera no bancarizada fundada en noviembre de 2017 en Perú y en Julio de 2019, iniciamos operaciones en México. RTC es una entidad financiera alternativa que ayuda a personas y pequeños negocios a acceder a créditos formales usando inmuebles como garantía, nuestros créditos se fondean mediante emisiones destinadas a inversionistas institucionales, lo que nos da flexibilidad y respaldo en cada operación.

Ayudamos a las personas a mejorar su salud financiera, desarrollado un ecosistema de productos y procesos pensados para quienes han sido históricamente excluidos del sistema financiero.

Nuestro SRE ideal será un apasionado por la automatización, la estabilidad y la eficiencia de sistemas a gran escala, experto en la convergencia de las disciplinas de desarrollo de software y operaciones, enfocándose en construir y mantener una infraestructura confiable, escalable y con un rendimiento óptimo.

Apply to this job directly at getonbrd.com.

Funciones del cargo

  1. Disponibilidad & Monitoreo
    • Definir y mantener SLOs/SLAs de sistemas clave (ej. scoring, desembolsos, cobranza digital).
    • Implementar y gestionar herramientas de monitoreo (logs, alertas, dashboards).
  2. Automatización & DevOps
    • Desarrollar pipelines de CI/CD para despliegues rápidos y seguros.
    • Automatizar procesos de infraestructura (infra as code, scripts, backups, recupero).
  3. Gestión de Incidentes
    • Liderar la respuesta a incidentes críticos (downtime, caídas de scoring, fallas en originación).
    • Documentar post-mortems y generar planes de prevención.
  4. Escalabilidad & Performance
    • Optimizar infraestructura para soportar crecimiento de cartera proyectada (S/400M a 2029).
    • Identificar y resolver cuellos de botella en performance (APIs, bases de datos, integraciones).
  5. Seguridad & Cumplimiento
    • Implementar prácticas de seguridad y resiliencia (backups, cifrado, control de accesos).

Requerimientos del cargo

  • Formación: Ingeniería de sistemas Ingeniería de Software o a fines.
  • Dominio de ingles, verbal y escrito B1 - B2
  • Experiencia:
    • 3–5 años en roles de DevOps, Infraestructura o SRE.
    • Experiencia en sistemas financieros, fintech o de alta criticidad es un plus.
  • Conocimientos técnicos:
    • Cloud.
    • Contenedores y orquestación (Docker, Kubernetes).
    • CI/CD (GitLab CI, GitHub Actions).
    • Monitoreo y logging (Prometheus, Grafana).
    • Bases de datos (relacionales).
    • Seguridad y compliance básico (ISO 27001, OWASP)

Cualidades Deseadas (Plus)

  • Conocimiento de bases de datos SQL y NoSQL.
  • Habilidades probadas en la depuración de problemas de rendimiento complejos.
  • Certificaciones relevantes en la Nube (p. ej., AWS Certified DevOps Engineer - Professional).

Condiciones

  • Sueldo base :( pago fin de mes plataforma Deel).
  • Trabajar de forma remota de lunes a viernes, horario de 9:00 am a 6:00 pm. (Hora Perú).
  • Si estas en Lima-Perú, te damos una laptop para tu uso en caso de ser necesario. Si no te encuentras en Lima, te pedimos que trabajes con tu propio equipo.
  • Reembolsos por gastos de salud (Trabajadores en el extranjero): Te reembolsamos cualquier gasto de salud o pago de seguros de salud hasta por un monto de USD $55 (cincuenta y cinco y 00/100 dólares americanos).
  • Bono Diciembre: En diciembre recibes un sueldo adicional proporcional al tiempo que has trabajado en el año. Ejemplo: Si ingresas en Abril, recibes (9 meses laborados) / (12 meses) de sueldo en diciembre.
  • Día de cumpleaños libre.
  • Aprendizaje: En RTC creemos fielmente en el apoyo a tu desarrollo personal y profesional.
  • Ofrecemos capacitaciones constantes: reuniones de equipo y entrenamientos semanales.
  • Vacaciones extra: RTC otorga vacaciones pagadas adicionales al mínimo legal.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks RebajaTusCuentas.com offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage RebajaTusCuentas.com pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation over legal RebajaTusCuentas.com gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2400 - 3200 Tiempo completo
Cloud Engineer AWS + Python
  • CoyanServices
Python Agile SQL NoSQL

CoyanServices ofrece una oportunidad 100% remota para profesionales en LATAM en modalidad freelance/tiempo completo orientada a migración y desarrollo de soluciones de automatización inteligente con IA. El proyecto principal se enfoca en la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure), con énfasis en IA y automatización cognitiva. Buscamos desarrollar agentes digitales, microservicios y APIs dentro del ecosistema AWS/Azure, integrando modelos de lenguaje (LLMs) y CI/CD para garantizar escalabilidad, rendimiento y cumplimiento en entornos ágiles. El rol colabora estrechamente con clientes y equipos de desarrollo para entregar soluciones robustas y operativas de alto impacto.

Exclusive to Get on Board.

Objetivos del rol

  • Apoyar la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure) con enfoque en inteligencia artificial.
  • Desarrollar agentes digitales y microservicios que integren automatización, APIs y modelos de lenguaje (LLMs).
  • Implementar soluciones de IA conversacional y marcos de automatización cognitiva que optimicen procesos operativos.
  • Asegurar buenas prácticas de desarrollo, escalabilidad y cumplimiento dentro de metodologías ágiles.

Responsabilidades

  • Migrar procesos de Automation Anywhere hacia soluciones en AWS y Azure.
  • Desarrollar agentes digitales y automatizaciones con enfoque en Machine Cognitive Processing (MCP).
  • Crear microservicios y APIs dentro del ecosistema AWS (API Gateway, AppSync).
  • Diseñar e implementar prompts efectivos para integrar soluciones con LLMs (AWS Bedrock, Azure OpenAI).
  • Desplegar e integrar aplicaciones en AWS/Azure, garantizando su estabilidad y rendimiento.
  • Participar en el análisis de requerimientos del cliente y definición técnica de soluciones.
  • Aplicar buenas prácticas de desarrollo, versionamiento y metodologías ágiles (Scrum/Kanban).

Requisitos Técnicos

  • Lenguajes: Python (requerido)
  • Nube: AWS (requerido)
  • Experiencia en bases de datos SQL (requerido).
  • Experiencia en Automation Anywhere (deseable).
  • Conocimientos en AWS Connect, Lambda, Azure Cognitive Services (deseable).
  • Familiaridad con AWS Bedrock o Azure OpenAI para soluciones de IA conversacional (deseable).
  • Experiencia en NoSQL (deseable).
  • Conocimiento en procesos operativos y automatización.
  • Experiencia con CI/CD (CloudFormation) y despliegues en entornos cloud.
  • Metodologías ágiles (Scrum/Kanban).

Deseables

Perfil Profesional:

  • Experiencia: 3–5 años en desarrollo de software.

Habilidades blandas:

  • Autonomía y proactividad.
  • Capacidad analítica para la resolución de problemas.
  • Comunicación efectiva con clientes y equipos técnicos.
  • Adaptabilidad a nuevas tecnologías y entornos cambiantes.
  • Orientación al trabajo colaborativo y resultados.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3500 - 4500 Tiempo completo
Senior AWS Engineer (Night Shift)
  • Niuro
Python Linux DevOps Continuous Integration
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

© getonbrd.com.

Key Responsibilities

  • Design, deploy, and maintain AWS infrastructure aligned with best practices for scalability, availability, and security.
  • Configure and manage Auto Scaling groups, EC2 instances, RDS databases, and CloudFront distributions.
  • Automate infrastructure provisioning and updates using Terraform.
  • Monitor and optimize system performance through metrics, alerts, and dashboards.
  • Manage FSx file systems, ensuring efficient performance and integration with Windows environments.
  • Collaborate with cross-functional teams to troubleshoot, optimize, and deliver stable infrastructure solutions.
  • Maintain detailed documentation of configurations, processes, and policies.

Requirements & Experience

Minimum 12+ years of proven experience in systems or cloud engineering roles, with 10+ years focused on AWS at scale. Strong expertise in Auto Scaling, Terraform, EC2, FSx, CloudFront, RDS, and monitoring/alerts. AWS Certification (Architect or equivalent) is required. Proficiency in Windows environments (not Linux) and fluent English with professional communication skills to coordinate across international teams.
Nice to Have: experience with Azure or GCP, CI/CD tools (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting with Python or PowerShell, and exposure to cloud security, governance, and compliance frameworks.

Nice to Have

Additional exposure to Azure or GCP cloud platforms, familiarity with CI/CD pipelines (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting in Python or PowerShell, and knowledge of cloud security, governance, and compliance frameworks are highly desirable.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Analista QA Senior
  • BC Tecnología
  • Santiago (Hybrid)
Agile QA Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con enfoque en soluciones para clientes de servicios financieros, seguros, retail y gobierno. Diseñamos soluciones a medida, gestionamos portafolio de proyectos, realizamos outsourcing y selección de profesionales. Nuestro objetivo es formar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, asegurando alta calidad, entrega temprana y valor para el negocio. Participarás en proyectos innovadores para clientes de alto perfil, con un entorno que promueve la inclusión, el aprendizaje continuo y el desarrollo técnico y profesional.

Applications at getonbrd.com.

Funciones

  • Analizar y diseñar planes de pruebas para garantizar la calidad de plataformas digitales.
  • Desarrollar y mantener automatización de pruebas con Playwright, Cypress o Selenium.
  • Ejecutar pruebas de API (Postman, Newman) y aplicar enfoques de BDD (Cucumber, Gherkin).
  • Trabajar en entornos cloud (AWS) dentro de equipos ágiles, participando en revisiones y mejoras continuas.
  • Colaborar con equipos de desarrollo y producto para definir criterios de aceptación y garantizar la estabilidad de releases.
  • Documentar resultados, crear informes de calidad y proponer mejoras preventivas y correctivas.

Descripción

En BC Tecnología estamos buscando un QA Senior con experiencia en automatización para garantizar la calidad y estabilidad de plataformas digitales. El/la candidato/a ideal debe poseer al menos 3 años de experiencia en QA automatizado, con dominio de herramientas de automatización (Playwright, Cypress o Selenium) y pruebas de API. Se valorará conocimiento en entornos cloud (AWS) y prácticas ágiles. Se busca proactividad, atención al detalle y capacidad de trabajar en equipos multidisciplinarios en un entorno híbrido.

Deseables

  • Experiencia en fintech, retail o medios de pago.
  • Conocimiento en pruebas de rendimiento y seguridad.
  • Certificaciones en QA y metodologías ágiles.
  • Habilidad de comunicación en español e inglés técnico.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2200 - 3000 Tiempo completo
DevOps / Infraestructura Cloud
  • Centro Medico del Trabajador
  • Santiago (Hybrid)
DevOps Continuous Integration QA Virtualization

Centro Medico del Trabajador (CMT Salud) es un centro de salud enfocado en exámenes preocupacionales y medicina preventiva, con altos estándares de calidad. Buscamos escalar nuestra operación tecnológica para soportar despliegues por paises, con planes de expansión a nuevos mercados. El equipo técnico se orienta a entregar soluciones confiables, seguras y escalables que faciliten la gobernanza, monitoreo y continuidad operativa en un entorno regulado. Este rol será pieza clave en la separación de ambientes por país, migraciones a la nube y mejoras de rendimiento, trabajando en conjunto con QA, desarrollo y liderazgo técnico para lograr entregas predecibles y controladas.

© Get on Board.

🛠️ Funciones del Rol

  • Gestionar y optimizar la infraestructura en AWS (IAM, VPC, cuentas, accesos).
  • Mantener, mejorar y documentar los pipelines CI/CD, idealmente usando CodePipeline, GitHub Actions o Jenkins.
  • Implementar y mantener flujos ETL usando herramientas como AWS Glue o ZeroETL.
  • Optimizar entornos QA, staging y producción con foco en eficiencia, seguridad y confiabilidad.
  • Coordinar con QA y desarrollo los lanzamientos a producción, asegurando orden, visibilidad y rollback.
  • Ser responsable técnico de los procesos de release y despliegue binacional, incluyendo su planificación, documentación y trazabilidad.
  • Liderar mejoras de gobernanza, monitoreo, seguridad y continuidad operativa.
  • Participar en proyectos estratégicos: separación de ambientes por país, gestión de políticas de acceso, mejoras de performance.

📌 Requisitos y perfil

Buscamos profesionales con experiencia comprobable en DevOps / Infraestructura cloud (al menos 2 años). Dominio sólido de AWS (IAM, ECS/EKS, EC2, S3, VPC, CloudWatch, Glue, etc.) y experiencia con herramientas de CI/CD (CodePipeline, GitHub Actions o Jenkins). Habilidad para diseñar, documentar y ejecutar procesos de despliegue a producción, así como gestionar pipelines y ETL's (Glue o Zero ETL). Se valora conocimiento en infraestructura como código (Terraform, CDK) y buenas prácticas de seguridad, monitoreo y continuidad operativa. Capacidad para colaborar con equipos de QA, desarrollo y producto, manteniendo siempre un enfoque de mejora continua.

🧩 Perfil Deseable

  • Autonomía técnica y capacidad para estructurar soluciones sin supervisión directa.
  • Experiencia en equipos con entregas frecuentes y flujos CI/CD activos.
  • Participación en proyectos de estandarización de entornos o mejora continua en infraestructura cloud.
  • Buenas prácticas en seguridad, monitoreo y continuidad operativa en AWS.
  • Capacidad para colaborar con equipos en Chile y Perú, en un entorno distribuido.

🎁 Beneficios y cultura

  • Cursos en udemy: Nos importa que constantemente estés aprendiendo y creciendo profesionalmente.
  • Convenio con gimnasio.
  • Convenio con Caja Los Andes.
  • Exámenes preventivos realizados en el CMT.
  • Seguro complementario de salud.
  • Convenio App MUVU (bienestar corporativo).
  • No dresscode: ¡Vístete como tú quieras!
  • Bar Office: al menos una vez al mes salimos a trabajar a un bar para generar un ambiente distendido.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero DevOps – Modalidad Híbrida
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Git Linux
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos, realiza outsourcing y selección de profesionales, con foco en soluciones para clientes de servicios financieros, seguros, retail y gobierno. En este rol, participarás en proyectos innovadores para clientes de alto nivel, integrando equipos ágiles y promoviendo buenas prácticas DevOps para entregar soluciones tecnológicas escalables y seguras. La posición se realiza bajo modalidad híbrida en Las Condes, con enfoque en crecimiento profesional, aprendizaje continuo y colaboración entre equipos.

This job is available on Get on Board.

Responsabilidades Principales

  • Diseñar, implementar y mantener pipelines de CI/CD;
  • Automatizar infraestructura con herramientas como Terraform, Ansible o similares;
  • Gestionar configuraciones y despliegues en entornos cloud (Azure, AWS o GCP);
  • Monitorear y garantizar la disponibilidad, rendimiento y seguridad de las aplicaciones;
  • Implementar estrategias de contenedorización y orquestación (Docker, Kubernetes);
  • Establecer políticas de versionamiento, rollback, pruebas automáticas y despliegue continuo;
  • Brindar soporte y asesoría a equipos de desarrollo y operaciones en buenas prácticas DevOps;
  • Participar en la mejora continua y capacitación interna en metodologías DevOps.

Requisitos y Perfil Buscado

Requisitos técnicos: herramientas DevOps (CI/CD: Jenkins, GitLab CI, Azure DevOps, CircleCI); contenedores y orquestadores (Docker, Kubernetes, Helm); infraestructura como código (Terraform, Ansible, CloudFormation); control de versiones (Git, GitHub, GitLab, Bitbucket); monitoreo y logging (Prometheus, Grafana, ELK Stack, Datadog, New Relic); cloud (AWS, Azure, GCP); scripting (Bash, Python, PowerShell). Deseable experiencia en metodologías ágiles (Scrum, Kanban); DevSecOps y pruebas automatizadas; entornos multicloud o híbridos. Experiencia mínima de 3 años en DevOps o roles similares, con evidencia de implementación de pipelines, automatización de despliegues y administración de infra en la nube.

Conocimientos y Habilidades Deseables

Conocimiento en enfoques de seguridad en pipeline y despliegues; experiencia trabajando con equipos multiculturales y distribuidos; capacidad de comunicación efectiva y orientación a resultados; habilidades de resolución de problemas y adopción de buenas prácticas de desarrollo y operaciones. Se valora certificaciones en nube y DevOps, así como experiencia en entornos financieros o regulados.

Beneficios y Entorno de Trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2400 - 2600 Tiempo completo
DevOps GCP – Automatización Mastercard
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile SQL DevOps
En BC Tecnología trabajamos en proyectos de alto impacto para clientes de servicios financieros. Este rol forma parte de un proyecto de automatización por API del proceso de pre-arbitraje Mastercard, enfocado en orquestar flujos en la nube utilizando Google Cloud Platform. El objetivo es entregar soluciones escalables y seguras que optimicen procesos, incrementen la fiabilidad y reduzcan el tiempo de ciclo de operaciones. Trabajarás junto a equipos de Infraestructura, Desarrollo y QA para construir, desplegar y mantener pipelines de automatización, integraciones entre componentes y servicios web, y soluciones basadas en contenedores para entornos de producción y desarrollo. La experiencia y las habilidades del candidato permitirán implementar prácticas de DevOps modernas, facilitar la entrega continua y soportar un entorno de servicios financieros regulados.

Find this job on getonbrd.com.

Funciones

  • Diseñar, implementar y mantener pipelines de CI/CD en Google Cloud Platform para automatización de procesos y APIs.
  • Desarrollar microservicios y componentes de automatización utilizando Python, con integración a APIs y Web Services.
  • Configurar y gestionar contenedores (Docker) y orquestación (Kubernetes) para entornos de desarrollo, pruebas y producción.
  • Trabajar con BigQuery y SQL para manejo de datos, validación de procesos y generación de métricas de rendimiento.
  • Automatizar pruebas, monitoreo y logging; asegurar cumplimiento de políticas de seguridad y gobernanza de datos.
  • Colaborar con equipos multifuncionales para definir requisitos, estimaciones y planes de mitigación de riesgos.
  • Participar en revisiones de código, documentar soluciones y promover buenas prácticas de DevOps.

Requisitos

Experiencia comprobable en Google Cloud Platform (GCP) con énfasis en automatización de procesos e integración de APIs.
Conocimientos sólidos en Python, SQL, BigQuery, Docker y Kubernetes.
Experiencia en manejo de APIs y servicios web; capacidad para diseñar soluciones resilientes y escalables.
Historial trabajando en entornos de integración y entrega continua, preferiblemente en proyectos de banca, seguros u otros servicios regulados.
Habilidad para trabajar de forma colaborativa en equipos ágiles, con buenas prácticas de documentación, pruebas y seguridad.
Deseable: experiencia adicional en herramientas de observabilidad (monitoring, tracing), gestión de secretos y seguridad en la nube.

Desirable

Certificaciones en GCP o DevOps (por ejemplo, Google Cloud Professional Cloud Architect, AWS/Azure equivalentes, o certificaciones de Kubernetes).
Conocimientos de herramientas de automatización de flujo de trabajo y orquestación adicional (por ejemplo, Terraform, Ansible, GitOps).
Experiencia previa con entornos de Mastercard o procesos de pre-arbitraje, o en soluciones de pagos digitales.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Senior AWS Cloud Engineer
  • Merapar
Python Virtualization Amazon Web Services Cloud Computing
Merapar is a European Software/Technology consultancy company that specializes in cloud (AWS and GCP) , video platforms and utilities that now also has an office in Chile serves the Americas market. We work in small agile teams and help global video power houses such as BBC, NBC Universal, Liberty Global, Discovery to get innovations to the market. The senior cloud engineer will work with a team based in the UK that works on video platforms and monitoring solutions for utility companies

Apply at the original job on getonbrd.com.

Job functions

  • Design and implement using IaC AWS based infrastructure solutions.
  • Create and maintain CI/CD pipelines.
  • Support existing cloud infrastructure.
  • Work inside Agile teams working collaboratively with other developers

Qualifications and requirements

  • Good level in English. The interviews will be in English
  • Over 8 years' experience with at least 3 years of AWS and Infrastructure as Code experience.
  • Extensive programming knowledge in Python or having experience in other languages and willing to learn Python
  • Extensive experience in cloud technologies with recent hands-on AWS knowledge.
  • Proven record of high-quality delivery and related documentation.
  • Able to take feature and functional requirements and convert them into technical solutions.
  • Resident in Chile and living in Santiago

Desirable skills

  • Extensive experience with Terraform

Conditions

  • Very experienced colleagues you can work with and learn from
  • 40 hour work week
  • 20 vacation days (and yes you can take them in the first year as well)
  • more unpaid vacation days if your manager approves
  • Macbook Pro to do your work on
  • Work from home.
  • We meet once per week to work and have lunch together
  • Paid sick days
  • A company that is willing to invest in your development

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Merapar provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Merapar gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Sysadmin (Administrador/a de Sistemas)
  • BC Tecnología
  • Santiago (Hybrid)
SQL NoSQL Sysadmin DevOps
BC Tecnología es una consultora de TI que administra portafolio, desarrolla proyectos, realiza outsourcing y selección de profesionales para clientes en servicios financieros, seguros, retail y gobierno. Nuestro enfoque es entregar soluciones ágiles y escalables, con equipos especializados en Infraestructura, Desarrollo de Software y Unidades de Negocio. En este rol, te incorporarás a un equipo orientado al soporte y la administración de infraestructuras críticas, participando en proyectos innovadores para clientes de alto nivel y con un compromiso claro de excelencia operativa y customersociedad digital.

Apply at the original job on getonbrd.com.

Funciones principales

  • Atender incidentes, incidencias y solicitudes de servicio de clientes internos en turnos rotativos.
  • Administrar y mantener la infraestructura tecnológica para garantizar alto rendimiento y disponibilidad.
  • Implementar y documentar monitoreo preventivo para experiencias críticas y de negocio.
  • Liderar mesas de incidentes y participar activamente en la resolución de problemas.
  • Supervisar y dar soporte a plataformas y experiencias digitales.
  • Documentar procesos, configuraciones y flujos de trabajo técnicos para mejorar la trazabilidad y escalabilidad.

Descripción

Buscamos un SysAdmin con al menos 2 años de experiencia en roles de administración de sistemas o DevOps. Es deseable experiencia en Kubernetes y/o Docker Swarm (en entornos on-premise o en la nube: GCP, AWS, Azure), así como familiaridad con herramientas de monitoreo (ELK, Datadog, AppDynamics). Es fundamental experiencia con bases de datos SQL y NoSQL (por ejemplo Cassandra, MongoDB) y manejo de herramientas de ticketing (Jira). Se valorarán habilidades para trabajar en entornos colaborativos, con orientación a resultados, buena gestión del tiempo y capacidad para comunicar con claridad a equipos técnicos y no técnicos.

Requisitos deseables

Competencias en automatización de infraestructuras, experiencia en entornos regulados y conocimiento de buenas prácticas de seguridad y cumplimiento. Capacidad para analizar incidentes complejos, proponer soluciones sostenibles y documentar de forma clara. Se valorará certificaciones relacionadas con sistemas, nube y contenedores, así como habilidades de trabajo en equipos ágiles y conocimiento de metodologías de ITIL o similares.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 3500 Tiempo completo
Consultor DBA Senior – Oracle 10g y 19c
  • Lisit
SQL Oracle PL/SQL Database Administrator
En Lisit buscamos un Consultor DBA Senior para liderar un proyecto crítico de migración y actualización de bases de datos Oracle. El candidato será responsable de planificar, coordinar y ejecutar la migración de Oracle 10g a Oracle 19c, asegurando la continuidad operativa del negocio, la integridad de los datos y la optimización del rendimiento en la nueva versión. El proyecto implica gestionar riesgos, diseñar estrategias de backup y recuperación, y garantizar la disponibilidad y seguridad de los entornos de base de datos durante todo el ciclo de migración.

Apply directly on the original site at Get on Board.

Funciones principales

  • Diseñar y ejecutar la estrategia de migración de bases de datos Oracle en sus diferentes versiones incluyendo 10g y 19c (excluyente), alineando plazos, recursos y mínimos riesgos de downtime.
  • Realizar análisis de compatibilidad de aplicaciones y ajustes de parámetros en la nueva versión
  • Configurar, administrar y monitorizar bases de datos, asegurando rendimiento, disponibilidad y escalabilidad.
  • Diseñar e implementar estrategias de backup, recuperación y alta disponibilidad (RMAN, Data Guard, RAC si aplica).
  • Realizar tuning de rendimiento, revisión de cargas, índices y consultas PL/SQL para optimizar tiempos de respuesta.
  • Coordinar con equipos de infraestructura, desarrollo y operaciones para garantizar una migración sin interrupciones y trazabilidad.
  • Documentar procesos, procedimientos y planes de pruebas, y generar informes de progreso para stakeholders.
  • Definir y ejecutar planes de contingencia y rollback .
  • Gestionar incidentes críticos, realizar root cause analysis y definir planes de mejora.

Requisitos y perfil

Buscamos un DBA Senior con amplia experiencia en migraciones de Oracle y un profundo dominio de Oracle 10g y Oracle 19c. El candidato debe demostrar habilidades técnicas sólidas en administración de bases de datos, diseño de esquemas, tuning de rendimiento y estrategias de alta disponibilidad. Se valorarán certificaciones Oracle (OCS/OCP) y experiencia previa liderando proyectos de migración en entornos empresariales. Capacidad de análisis, comunicación efectiva y habilidad para trabajar de forma autónoma en un equipo distribuido.

Requisitos mínimos: experiencia demostrada en migración de Oracle 10g y 19c; gestión de RMAN y recuperación ante desastres; arquitectura de bases de datos, backup/restore, particionado y mantenimiento de esquemas; familiaridad con entornos Unix/Linux y scripting; conocimiento de PL/SQL y sqlplus; habilidades de resolución de problemas y capacidad de trabajar bajo presión.

Ingeniero en Sistemas, Informática o carrera afín.

Mínimo 8 años de experiencia como DBA Oracle en entornos corporativos.

Familiaridad con DB Links, Packages y Triggers.

Requisitos deseables

Experiencia con Oracle RAC y Data Guard; familiaridad con Oracle 10g, 12c y 19c, Oracle ASM; conocimiento de herramientas de monitoreo (OEM, AWR, ADDM); experiencia en entornos cloud (OCI/AWS) y migraciones a la nube; habilidades de gestión y coordinación con equipos multidisciplinarios; enfoque proactivo y orientado a resultados, con buenas habilidades de comunicación para reportes a dirección.

Beneficios

100% remoto
Horario flexible y equilibrio entre vida personal y trabajo

Equipo colaborativo.

Proceso de selección eficiente y comunicación clara a lo largo de la contratación

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3000 Tiempo completo
SRE Semi Senior
  • TCIT
  • Santiago (Hybrid)
Python Linux Go DevOps

En TCIT, lideramos proyectos de Ingeniería y Automatización para avanzar en la fiabilidad y escalabilidad de nuestras plataformas en la nube. Buscamos profesionales SRE con interés en colaborar estrechamente con equipos de desarrollo y de operaciones para construir y fortalecer pipelines de CI/CD, infraestructuras declarativas con IaC (principalmente Terraform) y soluciones de observabilidad. Formarás parte de iniciativas que abarcan desde la implementación de prácticas de resistencia hasta la mejora continua de runbooks y procesos de incidentes, con foco en la mejora de la SRE Gobierno y la entrega de servicios robustos para clientes internos y externos. Si te apasiona la confiabilidad, la automatización y el trabajo en equipo, eres la persona indicada para unirte a TCIT y acompañar nuestra misión de transformar digitalmente a través de soluciones innovadoras.

Job opportunity published on getonbrd.com.

Funciones y responsabilidades principales

  • Ingeniería Práctica: Desarrollar y mantener pipelines de CI/CD, desplegar infraestructura con Terraform y escribir scripts (Python/Go/Bash) para automatizar tareas operativas.
  • Configuración de observabilidad: Implementar dashboards, alertas y logs en Datadog para nuevos y existentes servicios basándose en SLOs definidos.
  • Operación y Soporte: Participar en guardias on-call, resolver incidentes y apoyar a los equipos de desarrollo aplicando prácticas de fiabilidad.
  • Ejecutar y mejorar runbooks, participar en análisis post-mortem y proponer acciones de mejora para aumentar la resiliencia del sistema.
  • Colaboración y transferencia de conocimiento: Actuar como par técnico para SREs en formación, documentar procedimientos y participar en PRRs para validar implementaciones.
  • Trabajar de forma colaborativa en equipo, compartiendo buenas prácticas y asegurando que las soluciones queden bien documentadas y fáciles de mantener.

Descripción y requisitos técnicos

Buscamos SREs intermedios con experiencia sólida en entornos en la nube y un fuerte enfoque en fiabilidad y automatización. Requisitos clave:

  • Plataformas Cloud: experiencia práctica en Google Cloud Platform (GKE, IAM, GCE, Cloud SQL); experiencia deseable en AWS.
  • IaC y Automatización: Terraform como herramienta principal; experiencia con Ansible o similar es un plus.
  • Programación y scripting: Python o Go para automatización; Bash para scripting en Linux.
  • Contenedores y orquestación: Kubernetes (deployments, services, ingress, configmaps, secrets) y Docker.
  • CI/CD y DevOps: experiencia en pipelines con GitLab CI, Jenkins o Bitbucket Pipelines.
  • Observabilidad y monitoreo: Datadog (preferido), Prometheus/Grafana u otros; comprensión de logs, métricas y trazas.
  • Habilidades blandas: excelente trabajo en equipo, comunicación clara, proactividad y autonomía en tareas definidas.

Además, valoramos la capacidad de colaborar en documentos técnicos, participar en PRRs y apoyar a SREs en formación a través de prácticas de liderazgo situacional.

Requisitos deseables y cualidades

Se valorará experiencia adicional en desarrollo de software, experiencia en migraciones a la nube, conocimiento de herramientas de automatización avanzada y una mentalidad de mejora continua. Se espera que los candidatos demuestren adaptabilidad, habilidades para resolver problemas complejos y capacidad para priorizar en entornos dinámicos y de alta presión.

Beneficios y cultura

En TCIT, garantizamos un ambiente laboral enriquecedor con:

  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉

Si te sumas a TCIT, formarás parte de una comunidad apasionada por la revolución digital y proyectos con impacto social.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 2600 Tiempo completo
AWS Network Engineer
  • Interfell
Virtualization Amazon Web Services Planning Cloud Computing

En Interfell nos especializamos en conectar a las empresas con los mejores profesionales IT de Latinoamérica, impulsando el futuro de los negocios a través del talento remoto.
En este contexto se busca un/a AWS NETWORK ENGINEER con experiencia en AWS para diseñar, implementar y mantener soluciones de red en AWS que sean sólidas y seguras. La persona seleccionada tendrá la oportunidad de liderar la gestión de proyectos relacionados con actividades de red en AWS, incluyendo actualizaciones, implementaciones y migraciones dentro de la nube.

Ubicación; 100% Remoto. Latam
Horario de trabajo: 9 am a 6 pm EST
Inglés:
C1 o superior (será evaluado)
Contratación: 12 meses con renovaciones autómaticas.

Apply to this job directly at getonbrd.com.

Job functions

  • Diseñar, implementar y mantener soluciones de red en AWS que sean sólidas y seguras, incluyendo VPCs, subredes, tablas de enrutamiento, grupos de seguridad, listas de control de acceso de red (Network ACLs), Transit Gateways, VPNs (site-to-site, acceso remoto y conexiones basadas en la nube) y Direct Connect.
  • Implementar y gestionar dispositivos de red en AWS (AWS Network Appliances) como Palo Alto Networks, Fortinet, Check Point, entre otros, garantizando su rendimiento y seguridad óptimos dentro del entorno de AWS.
  • Monitorear y gestionar el rendimiento de la red dentro de los entornos de AWS, asegurando la funcionalidad, seguridad y escalabilidad óptima de los recursos en la nube.
  • Colaborar con otros equipos de TI para lograr una integración de red fluida y soporte entre diversas plataformas en la nube y on-premises.
  • Crear, actualizar y mantener documentación completa sobre configuraciones de red en AWS, procedimientos operativos y mejores prácticas.
  • Colaborar con el equipo de Seguridad de TI para implementar controles de seguridad de red sólidos en AWS, incluyendo listas de control de acceso (ACLs), firewalls (como AWS WAF y Network Firewall), sistemas de detección y prevención de intrusiones, y el desarrollo de políticas de seguridad de red en la nube.
  • Brindar soporte técnico a usuarios internos y partes interesadas externas para temas de conectividad de red en AWS y problemas relacionados.
  • Liderar la gestión de proyectos relacionados con actividades de red en AWS, incluyendo actualizaciones, implementaciones y migraciones dentro de la nube.
  • Gestionar y optimizar entornos de red multi-nube (Azure, GCP), incluyendo configuración, seguridad y optimización de recursos, con un enfoque principal en AWS.
  • Colaborar con clientes externos durante todo el ciclo de vida de la red, entregando soluciones de red en AWS que sean confiables y seguras, desde la evaluación inicial hasta la implementación exitosa de cambios.
  • Llenar el timesheet laboral diariamente

Qualifications and requirements

  • Más de 3 años de experiencia dedicada como Ingeniero de Redes en AWS o en un rol altamente especializado en redes de AWS.
  • Inglés C1
  • Experiencia a nivel experto con servicios de redes de AWS, incluidos, entre otros, VPC, Transit Gateway, Direct Connect, VPN, Route 53 y balanceadores de carga.
  • Experiencia comprobada implementando y gestionando dispositivos de red en AWS (por ejemplo, Palo Alto Networks, Fortinet, Check Point, etc.).
  • Experiencia práctica con funciones de seguridad de red en AWS y mejores prácticas.
  • Sólidas habilidades de resolución de problemas y troubleshooting, especialmente en problemas complejos de redes en la nube.
  • Experiencia práctica con herramientas de monitoreo, diagnóstico de redes y administración específicas de AWS.
  • Experiencia comprobada y exitosa en el diseño e implementación de redes en AWS.
  • Experiencia comprobada en planificación de capacidad de red, principios de seguridad de redes y mejores prácticas generales de administración de redes en un entorno en la nube.

Desirable skills

  • Plus: Certificación AWS Certified Advanced Networking - Specialty
  • Plus: Experiencia gestionando entornos de red en la nube en Azure y GCP
  • Plus: Familiaridad con herramientas de automatización en la nube (por ejemplo, Terraform, CloudFormation)
  • Plus: Experiencia con tecnologías locales (on-premises) de enrutadores, switches y firewalls

Conditions

Días de descanso no remunerados

Pago USD

Trabajo remoto - Latam

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $4000 - 5000 Tiempo completo
Senior AWS DevOps Cloud Engineer
  • OptConnect
  • Santiago (Hybrid)
DevOps Virtualization Amazon Web Services Continuous Deployment

M2M DataGlobal is a fast-growing Chilean tech company providing IoT connectivity across Latin America. Backed by OptConnect, M2M has the speed of a startup with the support of a global leader, with headquarters in Salt Lake City, Utah and offices throughout Europe.

You’ll be part of a hands-on international team, sharing knowledge with engineers in Chile and the U.S. The Santiago team works in a hybrid setup—some days at home to focus, other days together in a new Providencia office (10 minutes from Metro Tobalaba).

This isn’t just another job. As a senior engineer, you’ll be expected to learn fast, then step up to own and scale our AWS cloud infrastructure. You’ll sharpen our CI/CD pipelines, boost observability, and build tools that make developers’ lives easier.

Our stack: AWS, Kubernetes, AWS CDK (TypeScript), GitHub Actions, and modern observability tools.

Exclusive to Get on Board.

Key Responsibilities

  • AWS Cloud Infrastructure: Design, engineer, and maintain cloud infrastructure as code using AWS CDK and related IaC tools. Take ownership of core AWS services including EKS (Kubernetes), VPC, Route 53, Security Groups, IAM, EC2, Lambda, Elastic Beanstalk, CloudWatch, and CloudTrail. Ensure all infrastructure decisions prioritize security, scalability, and cost-efficiency.
  • CI/CD & Build Systems: Own and continuously improve the velocity and reliability of developer deployments by designing, maintaining, and evolving GitHub Actions-based CI/CD pipelines. Automate builds, tests, packaging, and deployments to eliminate manual steps, manage GitHub organizations and container registries such as Amazon ECR, and enhance release engineering practices.
  • Observability & Operational Readiness: Maintain and expand a developer-friendly observability stack using OpenTelemetry, ELK, Prometheus, and Grafana. Develop dashboards, logging standards, and alerting mechanisms that enable engineers to quickly analyze performance and troubleshoot. Proactively identify operational bottlenecks and prevent incidents.
  • Database & State Management: Architect and implement scalable and resilient databases including MongoDB, Redis, and Elasticsearch. Automate backup, recovery, monitoring, failover, and enforce security best practices to guarantee availability, durability, and performance with minimal operational overhead.
  • Learn: Grow fast with a Team Lead who speaks Spanish, knows our systems deeply, and will mentor you as you put your skills to work.
  • Own: Take charge of our AWS infrastructure—driving CI/CD, observability, and developer experience. Meeting the bar is required; raising it is success.
  • Lead: Share knowledge, shape best practices, and influence how our engineering teams build and deliver at scale.

Required Skills and Experience

We are seeking a senior DevOps engineer with a minimum of three years’ experience designing, building, and operating cloud-native infrastructure at scale, especially in high-availability environments. The ideal candidate will have deep expertise in creating, operating, and scaling Kubernetes clusters in AWS (EKS), along with strong proficiency in infrastructure as code (preferably AWS CDK) and managing distributed, production-grade systems.

You should bring strong proficiency in Infrastructure as Code (IaC), ideally with AWS CDK, and be comfortable running distributed systems in production. Hands-on experience with automated CI/CD pipelines (GitHub Actions), observability stacks (Prometheus, Grafana, ELK), and containerized workloads is essential.

Strong knowledge of networking fundamentals, HTTP protocols, and diagnostic tooling for rapid incident response is required. You’ll also be expected to apply cloud security best practices across Kubernetes and AWS: non-root containers, network policies, PodSecurity, secure IaC, artifact signing, IAM least privilege, MFA/SSO, vulnerability scanning, and hardened CI/CD workflows.

Excellent English communication skills are necessary to clearly explain complex technical concepts and collaborate across teams in Chile, the United States, and Europe. Candidates must thrive in a fast-paced, autonomous environment while showing rigorous attention to prioritization and delivery quality.

Desirable Skills and Qualifications

  • Experience with Serverless Framework or other AWS deployment automation tools.
  • Advanced knowledge of AWS networking, including VPC peering and Transit Gateway configuration.
  • Familiarity with additional container orchestration platforms beyond Kubernetes.
  • Proficiency in programming languages such as Go or Python for infrastructure automation.
  • Prior experience working remotely across multiple time zones and collaborating with globally distributed teams.
  • A passion for continuous improvement in developer experience and operational excellence.

Benefits

At M2M DataGlobal, we believe that behind every engineer is a person with dreams, values, and a life that deserves balance. A great culture comes first: flexibility, respect, diversity, and well-being are our foundation.

Our culture encourages autonomy, continuous learning, and technical ownership in a supportive, fast-paced setting.

  • Half day off on your birthday
  • Additional days off for personal errands and important moments
  • Health and wellness benefits including Betterfly, VIDA CÁMARA, and Caja Los Andes
  • Real flexibility to balance your personal and professional life
  • A collaborative team where attitude and desire to grow matter most

Here, we don't just build technological solutions. We build human connections with purpose, integrity, and commitment.

Wellness program OptConnect offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage OptConnect pays or copays health insurance for employees.
Commuting stipend OptConnect offers a stipend to cover some commuting costs.
Computer provided OptConnect provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal OptConnect offers paid parental leave over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 3500 Tiempo completo
DevOps AWS Opensearch/Elasticsearch & Containers Engineer
  • Coderslab.io
DevOps Virtualization Amazon Web Services Microservices

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Devops - AWS OpenSearch/ElasticSearch & Containers Engineer to join our team and help drive our mission forward.

Apply to this job directly at getonbrd.com.

Funciones del cargo

Role Purpose

Design, implement, and optimize AWS-based solutions focused on OpenSearch/ElasticSearch and containers (ECS/EKS) to support Payless’ omnichannel operations in retail and e-commerce. The role ensures efficient data pipelines, scalable microservices, and robust search capabilities integrating SAP HANA, Retail Pro, e-commerce, POS, and the AWS ecosystem.

Key Responsibilities

  • Deploy, manage, and optimize AWS OpenSearch/ElasticSearch clusters, ensuring performance and high availability.
  • Design and maintain data pipelines for log processing, analytics, and search-driven applications.
  • Manage workloads in Amazon ECS/EKS, ensuring deployment, scaling, and resilience of microservices.
  • Integrate search and container solutions with critical platforms: SAP HANA, Retail Pro, e-commerce, WMS, and CRM.
  • Implement monitoring, alerting, and automated recovery mechanisms for production environments.
  • Optimize costs, performance, and scalability across AWS architectures.
  • Collaborate closely with cloud architects, data engineers, and developers to ensure reliable and scalable digital services.

Requerimientos del cargo

  • Bachelor’s degree in Computer Science, Systems Engineering, or related fields (or equivalent experience).
  • 5+ years of experience in DevOps/Cloud roles with production projects in AWS.
  • Proven experience with OpenSearch/ElasticSearch and ECS/EKS implementations.
  • Strong ability to optimize performance and costs in enterprise cloud environments.
  • Advanced English (spoken and written) and fluent Spanish.

Opcionales

  • Experience integrating cloud architectures with retail and e-commerce systems.
  • Familiarity with SAP HANA, Retail Pro, POS, and inventory/CRM platforms.
  • Knowledge of IaC (Infrastructure as Code) and automation in AWS.
  • Proficiency with monitoring and logging tools (CloudWatch, Prometheus, Grafana, Kibana).

Condiciones

Location: Remote (LATAM)
Schedule: Miami time (Monday to Friday, 160 hours/month)
Contract: 12 months – Service contract
Languages: Advanced English & Spanish

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2800 - 3000 Tiempo completo
Arquitecto Cloud & Data Senior
  • BC Tecnología
  • Santiago (Hybrid)
Agile DevOps Virtualization Big Data
En BC Tecnología, somos una consultora de TI con amplia experiencia en diversas áreas tecnológicas, enfocada en brindar soluciones a clientes en sectores como retail, servicios financieros, seguros y gobierno. Actualmente participamos en un proyecto relevante para el sector retail, ubicado en Mall Alto Las Condes, donde buscamos potenciar las arquitecturas cloud y de datos a través de un enfoque híbrido, combinando sistemas cloud con infraestructuras on-premise para optimizar la integración de plataformas y el manejo de datos.

Apply to this job from Get on Board.

Responsabilidades principales

  • Diseñar arquitecturas escalables, seguras y resilientes utilizando AWS y Google Cloud Platform.
  • Gestionar la integración de datos y soluciones Big Data como Redshift, ETL/ELT.
  • Definir patrones de integración asegurando la interoperabilidad entre sistemas legacy, cloud y plataformas SaaS.
  • Liderar workshops para la definición y validación de arquitecturas.
  • Coordinar y liderar equipos técnicos especializados en proyectos de arquitectura cloud y datos.
  • Garantizar la calidad y consistencia de datos a lo largo de todo el flujo de información.

Descripción del perfil requerido

Buscamos un profesional con al menos 5 años de experiencia comprobable en diseño y liderazgo de arquitecturas cloud y de datos. Debe tener conocimientos sólidos en AWS (Lambda, S3, Step Functions, API Gateway, EventBridge, DynamoDB) y Google Cloud Platform orientados a Big Data. Se valoran habilidades para gestionar procesos ETL/ELT así como la integración de microservicios, APIs, buses de eventos y middleware. El candidato debe estar familiarizado con metodologías Agile, DevOps y prácticas CI/CD para asegurar la agilidad y calidad en los desarrollos.
Además, es fundamental que cuente con competencias en liderazgo y comunicación para conducir workshops y coordinar equipos multidisciplinarios, fomentando un entorno colaborativo y orientado a resultados. La capacidad para comprender y conectar sistemas core, middleware y plataformas SaaS en entornos híbridos es clave para el éxito en este rol.
Buscamos también a alguien proactivo, con pensamiento crítico, adaptable a cambios rápidos y con enfoque en la mejora continua y la innovación tecnológica.

Requisitos deseables

Se valorará experiencia adicional en arquitecturas híbridas complejas que integren cloud y entornos on-premise. Conocimientos en plataformas SaaS específicas del sector retail, familiaridad con herramientas avanzadas de análisis de datos y Big Data, y experiencia previa en proyectos con clientes de alto nivel serían un plus. También, será favorable el manejo avanzado de inglés técnico que facilite la interacción con proveedores internacionales y documentación técnica.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2600 - 2800 Tiempo completo
DevOps/Cloud Engineer Latam
  • BC Tecnología
Python Git Linux DevOps
En BC Tecnología somos una consultora de TI con amplia experiencia en diversos sectores, incluyendo retail, servicios financieros, seguros y gobierno. Participarás en un proyecto situado en el sector retail, orientado a garantizar la disponibilidad, estabilidad y rendimiento de sistemas críticos para el negocio. Nuestra empresa se destaca por ofrecer soluciones a la medida de nuestros clientes, con equipos ágiles que facilitan un desarrollo eficiente y alineado a las necesidades del mercado. Trabajarás en un entorno dinámico que promueve la colaboración y el uso de metodologías ágiles para el éxito de nuestros proyectos.

Find this job and more on Get on Board.

Responsabilidades principales

  • Gestionar infraestructura como código utilizando herramientas como Terraform, CloudFormation y Ansible.
  • Automatizar despliegues y mantener pipelines de integración y entrega continua (CI/CD).
  • Administrar contenedores y clusters con Kubernetes y Docker.
  • Monitorear sistemas para asegurar el rendimiento adecuado y responder de forma efectiva a incidentes en producción.
  • Colaborar estrechamente con los equipos de desarrollo para implementar mejoras y solucionar problemas.
  • Documentar procedimientos y runbooks para facilitar la operación y mantenimiento.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en roles relacionados con DevOps, cloud y operaciones. Es fundamental poseer conocimientos sólidos en la gestión de infraestructura como código y experiencia en automatización de despliegues mediante pipelines CI/CD.
Debe manejar tecnologías de contenedores como Kubernetes y Docker, y contar con habilidades para la monitorización y logging usando herramientas tales como Prometheus, Grafana, CloudWatch o el stack ELK.
Las capacidades de scripting en Bash y Python serán clave para la automatización y resolución de incidencias. Es indispensable asimismo contar con experiencia en control de versiones con Git.
Buscamos una persona con alta responsabilidad, capacidad para trabajar en equipos interdisciplinarios, y habilidades comunicativas para documentar procesos y colaborar con otros departamentos.

Conocimientos adicionales valorados

Se valorará experiencia en múltiples plataformas cloud públicas, como AWS (especialmente EC2, EKS y RDS), Azure y Google Cloud Platform. Además, haber trabajado en proyectos del sector retail o en entornos de alta disponibilidad será un plus.
Capacidades para llevar a cabo mejoras continuas, así como interés por nuevas tecnologías y automatización avanzada serán altamente apreciadas.

Cultura y beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 2500 Tiempo completo
Senior Infrastructure Engineer (AWS)
  • Niuro
Python Linux DevOps Virtualization
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
We empower projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. With a strong focus on professional growth, Niuro offers continuous training in technical and soft skills as well as leadership development to ensure success in innovative and challenging projects. We also manage all administrative tasks including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Joining Niuro means working within a collaborative environment where talent can grow and reach its full potential, participating in impactful and technically rigorous industrial data projects that drive innovation and professional growth.

Official source: getonbrd.com.

Technical Snapshot & Key Responsibilities

  • Architect and maintain multi-account infrastructure in AWS using Terraform, including reusable modules, remote state management, drift detection, and enforcement of security and cost policies.
  • Operate Kubernetes/EKS clusters and large-scale EC2 fleets with features such as autoscaling, right-sizing, and blue/green deployments (surge and rollback).
  • Automate golden AMI pipeline creation using tools like Packer and AWS Systems Manager (SSM).
  • Manage critical Windows Server workloads and IIS in production: hardening, patching, centralized log management, and scaling IIS behind ALB/NLB.
  • Implement end-to-end observability solutions, unifying logs, metrics, and traces across CloudWatch, OpenSearch/ELK, Datadog, FluentBit, and Winlogbeat, creating dashboards and alerts that reduce 5xx errors and accelerate root cause analysis.
  • Conduct infrastructure sweeps and tuning to improve reliability, fix misconfigurations, optimize RDS (failover, replicas, connection management) and FSx, and enforce checks through CI/CD pipelines.
  • Design and execute performance readiness testing including load and stress tests with tools like k6, Locust, JMeter, and Python scripts to validate scaling and eliminate bottlenecks before peak traffic periods.

Requirements

  • 5+ years experience in DevOps, Infrastructure Engineering, or Site Reliability Engineering (SRE) roles.
  • Advanced expertise in AWS services including RDS, FSx, CloudWatch, EC2, and ELB.
  • Hands-on experience with Terraform and Kubernetes, strongly preferred expertise with EKS.
  • Practical production experience managing Windows Server and IIS workloads on AWS including patching, scaling, and integrating IIS logs.
  • Expertise in EC2 scaling strategies and golden AMI image workflows.
  • Proven skills deploying and managing observability stacks that provide actionable alerts and diagnostics.
  • Strong background in performance and load testing methodologies.
  • Proficient scripting skills in Python and Bash; PowerShell experience is a plus.
  • Excellent communication skills, systems thinking ability, and meticulous attention to detail.

Nice-to-Have Skills

  • Experience with policy-as-code tools such as Open Policy Agent (OPA) or Sentinel.
  • Knowledge of service mesh or serverless architecture patterns.
  • Expertise in security automation frameworks including CIS benchmarks and AWS Inspector.
  • Familiarity with cost-optimization tooling in cloud environments.
  • Leadership experience managing high-traffic incidents and operational response.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2000 Tiempo completo
Senior Load Tester – AWS & Integrations
  • Niuro
JavaScript Python REST API Linux
Niuro connects projects with elite tech teams to collaborate with leading U.S. companies. This role involves working on AWS-hosted systems, Aestiva-based applications, and third-party integrations, focusing on load and performance testing. The project emphasizes creating realistic load scenarios, identifying bottlenecks, and optimizing scalability and performance. The work supports continuous integration and deployment pipelines to enhance system reliability and efficiency and is tailored for diverse distributed environments.

Job source: getonbrd.com.

About the Role:

We’re looking for a Senior Load Tester to design and execute load testing strategies for systems hosted on AWS, applications built with Aestiva framework, and various third-party integrations. Your main goal will be to simulate real-world usage through custom scripting, identify system performance bottlenecks, and ensure that applications scale reliably under stress.
Your responsibilities will include automating test executions, monitoring key system metrics such as CPU, memory, I/O, latency, and throughput, and working closely with engineering and DevOps teams. You'll integrate testing results and detailed reports into CI/CD pipelines, helping to drive continuous performance improvements and operational excellence.

Requirements:

  • Minimum 5 years of experience in performance and load testing within distributed systems environments.
  • Strong scripting skills using tools such as JMeter, Gatling, k6, along with languages like Python, Bash, or JavaScript.
  • Hands-on experience with AWS services including EC2, RDS, Load Balancers, and CloudWatch.
  • Familiarity with REST APIs, JSON, and asynchronous workflows.
  • Experience working with CI/CD tools like TeamCity, Jenkins, or GitLab CI, and monitoring platforms such as Grafana and New Relic.
  • Proven ability to analyze logs, traces, and performance metrics for diagnosis and troubleshooting.
  • Conversational English proficiency to effectively collaborate with US-based teams.

Nice to Have:

  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Experience performing security and failover testing to ensure robustness.
  • Background in regulated industries including fintech or government technology sectors.

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1800 - 2900 Tiempo completo
DevOps
  • Coderslab.io
  • Santiago (Hybrid)
DevOps Continuous Integration Virtualization Docker

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job without intermediaries on Get on Board.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros. Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi. Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño. Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP). Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro. Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización. Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros.
Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi.
Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño.
Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP).
Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro.
Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización.
Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.) Conocimientos sólidos en Infraestructura como Código (IaC). Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI). Experiencia o certificación en FinOps (deseable). Manejo de contenedores y orquestadores (Docker, Kubernetes). Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.)
Conocimientos sólidos en Infraestructura como Código (IaC).
Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI).
Experiencia o certificación en FinOps (deseable).
Manejo de contenedores y orquestadores (Docker, Kubernetes).
Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2700 - 3500 Tiempo completo
DevOps
  • Coderslab.io
JavaScript Python Redis Node.js
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPSpara unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job offer is on Get on Board.

Funciones del cargo

• Diseñar, implementar y mantener pipelines de integración y entrega continuas
(CI/CD).
• Colaborar con equipos de desarrollo para integrar prácticas DevOps en el ciclo de
vida del desarrollo de software.
• Automatizar procesos de infraestructura y despliegue de aplicaciones.
• Administrar y mantener la infraestructura en la nube y servidores.
• Monitorear y mejorar la disponibilidad, rendimiento y seguridad de los sistemas.

Requerimientos del cargo

• Dominio en administración de servicios en la plataforma AWS, incluyendo
Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, IAM Role, S3, EC2, ECS, Secret
Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API
Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions.
• Experiencia en construcción de infraestructura como código (IaC) con Terraform y
Cloudformation (herramientas excluyentes).
• Experiencia en despliegue de aplicaciones móviles offline.
• Experiencia con GitHub como gestor de código fuente y GitHub Actions como
herramienta de despliegue.
• Experiencia en análisis de código estático con SonarCloud.
• Experiencia en desarrollo de código con Python y Node.js con objetivo
operacional.
• Conocimiento en lenguaje SQL y gestión de bases de datos transaccionales.
• Habilidades de trabajo en equipo, autogestión, proactividad y comunicación
efectiva.
• Conocimientos en bases de datos NoSQL y bases de datos embebidas

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 3000 Tiempo completo
AWS Engineer (Semi Senior / Senior)
  • Niuro
DevOps Virtualization Amazon Web Services Docker
Niuro is a dynamic company that connects elite technology teams with leading U.S. companies, focusing on simplifying global talent acquisition through innovative, efficient solutions. We specialize in providing autonomous, high-performance tech teams that excel in delivering cutting-edge projects, chiefly within the industrial data space. Our teams engage in technically challenging and impactful initiatives that foster innovation and professional growth. By partnering with Niuro, you become part of a collaborative environment dedicated to excellence, continuous learning, and leadership development. Our commitment extends beyond technical contributions; we manage all administrative responsibilities such as hiring, payments, and training, enabling our engineers to focus wholly on delivering outstanding results.

Job source: getonbrd.com.

Role and Responsibilities

As an AWS Engineer at Niuro, your primary responsibility will be designing, deploying, and maintaining scalable, secure, and efficient infrastructure solutions on AWS. You will work closely with cross-functional US-based teams to define architecture and automation using infrastructure as code.

  • Design and implement cloud infrastructure using AWS services such as IAM, S3, VPC, Lake Formation, CloudFormation, and CloudWatch.
  • Develop and maintain deployment pipelines and infrastructure automation primarily through Terraform and CI/CD tools.
  • Ensure system security, monitoring, and performance tuning to meet high availability and reliability standards.
  • Collaborate with development and operations teams to integrate cloud-based systems smoothly and optimize workflows.
  • Participate actively in code reviews, technical discussions, and knowledge sharing sessions.
  • Support incident response and troubleshoot complex infrastructure issues efficiently.

Required Skills and Experience

We are looking for a Semi Senior to Senior AWS Engineer with a strong background in cloud infrastructure design and deployment. The ideal candidate must demonstrate proficiency in a broad range of AWS services such as IAM (Identity and Access Management), S3 (Simple Storage Service), VPC (Virtual Private Cloud), Lake Formation, CloudFormation, and CloudWatch.
Experience with DevOps practices and tools like Terraform and CI/CD pipelines is essential to ensuring the reliable delivery and automation of infrastructure.
The candidate should have conversational-level English skills, enabling effective communication and collaboration with US-based teams. A proactive mindset, problem-solving abilities, and passion for continuous improvement are highly valued.
Soft skills such as teamwork, adaptability, and a results-oriented attitude are vital for success in our fast-paced and collaborative environment.

Desirable Additional Skills

While not mandatory, experience and familiarity with FastAPI, Gunicorn, Pydantic, Boto3, Aestiva HTML/OS, Docker, TeamCity, GitHub, or Gitea will be considered a strong advantage. Knowledge in these areas will enable deeper integration and more versatile contributions within our technology stack and DevOps workflows.
Exposure to containerization technologies such as Docker and continuous integration servers like TeamCity can enhance overall effectiveness in deployment automation and system reliability.

Benefits and Work Environment

At Niuro, we provide a flexible 100% remote working structure tailored for professionals residing within LATAM, empowering you to work from your preferred location without compromising professional growth.
We foster a culture of continuous learning, offering professional development through ongoing technical and soft skills training, in addition to leadership development opportunities.
Our projects are technically challenging and impactful, driving innovation in the industrial data domain, which supports your career advancement.
Niuro handles all administrative aspects including hiring, payments, and training, allowing you to focus on what matters most — your work and career growth.
There is potential for long-term engagement and transition to stable full-time employment following the successful completion of the initial contract.
Join Niuro and become part of a global community committed to excellence, collaboration, and innovation.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 4000 Tiempo completo
Ingeniero/a DevOps
  • Devups
Agile DevOps Continuous Integration Virtualization
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Send CV through Get on Board.

Job functions

  • Diseñar e implementar pipelines de CI/CD junto al PM asignado.
  • Colaborar con equipos de desarrollo en la automatización de pruebas y despliegues.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de infraestructuras y aplicar patrones comprobados de IaC y orquestación. Deberá tener experiencia optimizando performance y seguridad en pipelines de CI/CD, así como la capacidad para comunicar claramente retos técnicos complejos. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Herramientas CI/CD:
  • Jenkins
  • GitLab CI/CD
  • GitHub Actions
Contenedores y Orquestación:
  • Docker
  • Kubernetes
Infraestructura como Código (elige uno):
  • Terraform
  • CloudFormation

Desirable skills

  • Experiencia en AWS Services (EKS, ECS, Lambda) o Azure DevOps.
  • Monitoreo y logging con Prometheus, Grafana o ELK.
  • Conocimientos de Networking y seguridad en la nube.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
QA Automation Engineer Python/Robot Framework
  • Coderslab.io
Android iOS Python Agile
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos buscando un Ingeniero Senior en Automatización para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This company only accepts applications on Get on Board.

Funciones del cargo

1. Desarrollo de Automatización de Pruebas:
o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y
APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).
o Garantizar la cobertura de pruebas para servicios REST y GraphQL.
o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba
existentes.
2. Pruebas de Bases de Datos:
o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y
no relacionales (e.g., DynamoDB).
3. Gestión y Colaboración:
o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.
o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para
garantizar que los requisitos de calidad se cumplan.
o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.
4. Gestión de Infraestructura:
o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.
o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento
de pruebas automatizadas.
5. Capacitación y Transferencia de Conocimiento:
o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de
automatización.
o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la
mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.
• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium
(Android/iOS).
• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.
• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).
• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).
• Conocimiento de herramientas de CI/CD como GitHub Actions.
• Experiencia trabajando con AWS.
• Manejo de herramientas de gestión como Jira y Confluence.
• Habilidades en documentación y colaboración con equipos técnicos y de negocio.
• Experiencia en entornos ágiles (Scrum)
• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje
continuo.
• Excelentes habilidades de comunicación y proactividad
• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
DevOps Engineer con Conocimientos en Back-end y AWS
  • Coderslab.io
JavaScript Java Python Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply directly from Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2000 Tiempo completo
Especialista en Sistemas Linux y Automatización
  • BC Tecnología
  • Santiago (Hybrid)
Git Linux UML Virtualization
En BC Tecnología somos una consultora de Servicios IT que, desde hace 6 años, diseñamos soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno. Contamos con un portafolio integral que incluye consultoría, desarrollo de proyectos, outsourcing y servicios de soporte y administración IT. Nuestro enfoque está en metodologías ágiles, cambio organizacional y desarrollo de productos, formando equipos de trabajo especializados para potenciar cada proyecto. El especialista Linux se integrará a un equipo técnico dedicado a proyectos desafiantes de alto impacto, participando en iniciativas que impulsan la innovación tecnológica en un entorno profesional sólido.

Apply to this job from Get on Board.

Funciones y responsabilidad del puesto

El profesional seleccionado tendrá la responsabilidad principal de administrar y optimizar entornos RedHat Linux, garantizando la eficiencia y estabilidad de los sistemas operativos. Deberá desarrollar scripts en Shell/Bash para automatizar tareas operativas y de mantenimiento, mejorando los procesos internos del proyecto. También será encargado de gestionar repositorios de código y versiones utilizando herramientas de control como Git, ya sea en GitHub o GitLab. Además, debe crear y mantener documentación técnica detallada y diagramas UML para soportar el desarrollo y mantenimiento del sistema, facilitando el conocimiento transversal y la continuidad del proyecto.
Este rol requiere una participación activa en el equipo, colaborando en la resolución de incidencias y la implementación de mejoras técnicas, siempre orientado a cumplir con los objetivos del proyecto con calidad y eficiencia.

Requisitos y habilidades necesarias

Buscamos a un profesional con sólida experiencia comprobable en administración y operación de sistemas Linux, especialmente en distribuciones RedHat, capaz de manejar entornos productivos complejos con autonomía y criterio técnico.
Debe poseer amplias habilidades en scripting Shell/Bash para automatizar múltiples procesos de administración de sistemas, logrando reducir errores y aumentar la productividad del equipo. Es indispensable el conocimiento práctico en herramientas de control de versiones Git, ya sea en plataformas como GitHub o GitLab, para gestionar colaborativamente el código fuente.
Es fundamental contar con competencias para elaborar documentación técnica clara y precisa, así como diagramas UML que ayuden a visualizar arquitecturas y flujos de procesos, facilitando el trabajo en equipo y la transferencia de conocimiento.
Se valorará especialmente la experiencia o conocimientos adicionales en soluciones en la nube como AWS S3 y la gestión de protocolos de transferencia de archivos (FTP). También es deseable haber trabajado con integración de sistemas mediante protocolos SAMBA/CIFS, especialmente en entornos de almacenamiento virtualizado (VMS).
Además, el candidato ideal debe tener capacidad para el trabajo colaborativo bajo metodologías ágiles, orientación al detalle, pensamiento analítico y proactividad ante la identificación de oportunidades de mejora.

Habilidades y conocimientos deseables

Se valorará positivamente la experiencia en administración y manejo de servicios en la nube, especialmente en AWS, como el uso de AWS S3 para almacenamiento y gestión de datos. Es deseable conocimiento en protocolos FTP que faciliten la transferencia segura y eficiente de archivos.
También resulta importante la experiencia en integración de sistemas utilizando SAMBA/CIFS para compartir recursos en entornos de almacenamiento virtualizado, orientados a mejorar la interoperabilidad dentro de las arquitecturas de TI.
Conocimientos adicionales en seguridad informática, monitoreo y optimización del rendimiento de sistemas Linux serán considerados un plus para fortalecer el perfil técnico del candidato.

VER TRABAJO POSTULAR VÍA WEB
Net salary $1000 - 1400 Tiempo completo
Analista QA
  • Defontana
  • Santiago (Hybrid)
Amazon Web Services Quality Assurance Performance Testing Test Planning

¿Te gusta trabajar con las últimas tecnologías? ¿Te consideras innovador y quieres participar proyectos de modernización de plataformas? Si tu respuesta es SÍ, este desafío es para ti. En Defontana buscamos nuevos talentos para formar parte de nuestros proyectos y construir en conjunto las mejores soluciones empresariales del mercado.

DEFONTANA ofrece soluciones empresariales 100% WEB, siendo la empresa líder del mercado latinoamericano en la implementación de software ERP.

Buscamos ofrecer grato ambiente laboral, compañerismo, conocimiento y desafíos, todos los ingredientes necesarios para hacer de tu día a día en Defontana algo interesante, algo diferente y que crezcas profesionalmente.

En el área de desarrollo de DEFONTANA estamos embarcados en una serie de proyectos que buscan expandir las funcionalidades disponibles para nuestros clientes, intentando generar un ecosistema que les entregue todo lo que necesitan para administrar con éxito sus empresas.

This job is original from Get on Board.

Funciones del cargo

Ser parte de la gestión de calidad de los productos asignados para realización de QA: diseño y ejecución integral de pruebas sobre el ERP Defontana según las necesidades de sus productos. Todas ellas creadas con el objetivo de detección temprana de errores durante el proceso de desarrollo.

Se busca en específico un analista QA que trabaje directamente con el equipo encargado de la Transformación Digital de la compañia, el cual esta compuesto por 2 celulas, siendo el responsable el Gerente del área misma (Gerencia de Transformación Digital), quien sera ademas jefatura directa de quien postule al cargo.
Alguna de las tareas que se deben desempeñar son las sgtes :

  • Realizar planes de pruebas
  • Ejecutar testing de productos
  • Simular ejecuciones de productos y su rendimiento
  • Evaluar exhaustivamente los resultados
  • Revisar especificaciones de servicios y productos
  • Asegurar un funcionamiento óptimo del software
  • Potenciar las estrategias de prueba

Requerimientos del cargo

Para este cargo se debe tener conocimiento o el perfil apropiado en algunos temas, tales como:

  • Tener y aplicar conocimiento sobre las distintas tipos de pruebas
  • Documentación de procesos.
  • Proponer soluciones a diferentes errores que se encuentren, de manera de no tan solo realizar pruebas, sino que aportar en las soluciones de las mismas.

Opcionales

Deseables:

  • Conocimiento en desarrollo de software: ciclos de vida, desarrollo ágil, etc.
  • Conocimientos básicos en AWS.

Condiciones

- Bono trimestral, según resultados de la empresa y antigüedad.
- Se entrega computador de trabajo.
- Trabajo remoto dos días a la semana.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2400 Tiempo completo
Consultor Científico de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python REST API SQL

🚀 ¡Estamos buscando talento para el equipo Lab de Microsystem! ⚗️

Si te gustan los datos, la programación y los desafíos que realmente generan impacto, acá hay una oportunidad muy entretenida. Estamos desarrollando proyectos innovadores ligados a Machine Learning, ingeniería y ciencia de datos: desde modelos predictivos de pesca (sí, con datos reales y complejos 👀), hasta modelos bancarios inteligentes que anticipan comportamientos y mejoran decisiones de negocio.

Buscamos a alguien motivado, curioso y con ganas de aprender tecnologías de punta. Alguien que disfrute mezclar lo técnico con lo consultivo: entender al cliente, su contexto y transformar eso en modelos funcionales y útiles.

Trabajarás con un equipo joven, colaborativo y con experiencia 🤓, en un ambiente donde se prueba, se crea y se innova. Si te gusta programar, experimentar y resolver problemas reales, este es tu lugar 💪.

¿Te interesa o conoces a alguien? ¡Hablemos! 🚀

Find this job and more on Get on Board.

Funciones del cargo

1. Levantamiento y entendimiento del negocio con el cliente

  • Participar en reuniones con clientes para comprender sus necesidades, procesos, problemas y expectativas.
  • Traducir requerimientos de negocio en objetivos analíticos y diseños de modelos.
  • Presentar hallazgos, resultados y recomendaciones de manera clara y comprensible.

2. Preparación, exploración y análisis de datos

  • Recopilar, limpiar y transformar datos provenientes de distintas fuentes.
  • Realizar análisis exploratorio (EDA) para descubrir patrones, anomalías y oportunidades de modelamiento.
  • Definir y construir pipelines de preparación de datos cuando sea necesario.

3. Construcción y entrenamiento de modelos predictivos

  • Diseñar, programar y entrenar modelos de Machine Learning (supervisados y no supervisados).
  • Seleccionar técnicas adecuadas según el problema: regresión, clasificación, series de tiempo, clustering, árboles, ensembles, etc.
  • Ajustar, validar y optimizar modelos para maximizar desempeño y robustez.

4. Implementación y despliegue de modelos

  • Implementar pipelines end-to-end: desde ingesta de datos hasta predicciones automatizadas.
  • Trabajar con herramientas y entornos de desarrollo modernos (Python, Jupyter, Git, APIs, etc.).
  • Colaborar con equipos Dev/Data Engineering para integrar los modelos en producción.

5. Documentación y comunicación

  • Documentar procesos, decisiones técnicas, métricas, versiones de modelos y flujos de trabajo.
  • Preparar presentaciones y reportes para explicar resultados a stakeholders técnicos y no técnicos.

6. Iteración, mejora continua y acompañamiento al cliente

  • Monitorear el rendimiento de los modelos y proponer mejoras.
  • Acompañar al cliente en el uso, interpretación y adopción del modelo.
  • Levantar nuevas oportunidades de mejora o proyectos relacionados.

7. Participación activa en el equipo Lab

  • Compartir aprendizajes, buenas prácticas y nuevos enfoques con el equipo.
  • Explorar tecnologías emergentes y sugerir innovaciones aplicables a los proyectos.

Requerimientos del cargo

Requisitos Técnicos (Hard Skills)

  • Formación en Ingeniería, Estadística, Matemáticas, Computación o carrera afín.
  • Experiencia comprobable en construcción de modelos predictivos (regresión, clasificación, series de tiempo, clustering, etc.).
  • Dominio de Python para ciencia de datos (pandas, scikit-learn, NumPy, matplotlib, etc.).
  • Conocimientos sólidos en limpieza, transformación y análisis exploratorio de datos (EDA).
  • Manejo de bases de datos y consultas SQL.
  • Conocimiento en APIs REST e integración de datos.
  • Capacidad para construir pipelines end-to-end de ML (ingesta, entrenamiento, evaluación, despliegue).
  • Manejo a nivel básico de herramientas analíticas como Power BI y/o Tableau para exploración y entendimiento de datos.
  • Deseable: experiencia en ML Ops, automatización, versionado de modelos o despliegue en la nube (AWS, Azure, etc.).

Requisitos Interpersonales (Soft Skills)

  • Habilidad para comunicarse claramente con clientes no técnicos.
  • Capacidad de levantar requerimientos, entender el contexto del negocio y traducirlo a problemas analíticos.
  • Buenas habilidades de presentación y storytelling con datos.
  • Proactividad, autonomía y ganas de aprender tecnologías nuevas.
  • Trabajo colaborativo en equipos multidisciplinarios.

Otros Deseables

  • Experiencia en consultoría o interacción directa con clientes.
  • Conocimiento en herramientas de visualización adicionales (Tableau, Looker, Power BI, etc.).
  • Inglés intermedio para lectura de documentación y soporte técnico.
  • Conocimiento de metodologías como CRISP-DM y otras a fines.
  • Conocimiento en otros lenguajes (TypeScript, JavaScript, etc.)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Education stipend Microsystem covers some educational expenses related to the position.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3200 - 4000 Tiempo completo
Arquitecto/a de Datos
  • Global Mobility Apex, S.A.
Java Python Scala Virtualization

Global Mobility Apex, S.A. es una corporación multinacional de bebidas y alimentos fundada en 1885, con operaciones en más de 14 países y más de 15,000 colaboradores. Contamos con el portafolio de bebidas más grande de la región y socios estratégicos como PepsiCo y AB InBev. En los últimos años hemos vivido una expansión global y nos estructuramos en cuatro unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Buscamos talento para acompañarnos en nuestra estrategia de expansión y crecimiento, llevando alegría y desarrollo a cada rincón de la organización. El/la Arquitecto/a de Datos será clave para diseñar, construir y optimizar nuestra arquitectura de datos, asegurando escalabilidad, eficiencia y confiabilidad, así como definir estándares y mejores prácticas para el manejo de Big Data, desde la estrategia hasta la implementación.

Apply at the original job on getonbrd.com.

Lo que harás

  • Diseñar e implementar arquitecturas de datos robustas y escalables para data lakes, lakehouses y soluciones de streaming en entornos cloud.
  • Definir estándares, marcos y patrones de desarrollo para el procesamiento de datos a gran escala, liderando iniciativas técnicas y de gobernanza.
  • Supervisar la construcción de pipelines ELT/ETL optimizados, garantizando la calidad, la seguridad y la gobernanza de los datos.
  • Identificar cuellos de botella y optimizar el rendimiento de consultas y procesamiento, con énfasis en Databricks y PySpark.
  • Colaborar estrechamente con Data Science, Ingeniería de Software y BI para traducir requerimientos del negocio en diseños técnicos de datos.

Qué esperamos de ti

Requisitos mínimos: 3 años de experiencia demostrable como Arquitecto/a de Datos o Ingeniero/a de Datos Senior. Dominio avanzado de Python y PySpark para procesamiento distribuido. Experiencia práctica con Databricks (Delta Lake y notebooks). Sólida experiencia en al menos una plataforma cloud líder (AWS, GCP o Azure).

Competencias técnicas clave: diseño y gestión de data lakes/warehouses, pipelines ELT/ETL, gobernanza de datos, optimización de rendimiento, manejo de grandes volúmenes de datos y arquitectura orientada a servicios. Enfoque en calidad de datos, seguridad y cumplimiento. Capacidad para trabajar de forma colaborativa y comunicar soluciones a stakeholders. Adaptabilidad ante entornos dinámicos y capacidad de liderazgo técnico.

Además, valoramos experiencia en BigQuery, streaming (Kafka, Kinesis o Pub/Sub) y herramientas de Orquestación (Airflow). Conocimientos en Infraestructura como Código (Terraform) serán considerados un plus.

Deseables

Experiencia adicional con Google BigQuery, diseño y optimización de esquemas y consultas. Experiencia en tecnologías de streaming y experiencia práctica con herramientas de integración continua y despliegue continuo. Conocimientos de Arquitectura orientada a eventos y experiencia trabajando en entornos de datos en la nube escalables. Habilidades de comunicación efectiva, pensamiento crítico y capacidad para influir y guiar a equipos multifuncionales.

Beneficios

  • Ambiente de trabajo colaborativo y dinámico.
  • Desarrollo profesional continuo y oportunidades de crecimiento.
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $4200 - 6000 Tiempo completo
Lead Data Engineer
  • Interfell
Java Python Web server Scala

Interfell connects LATAM-based IT talent with leading companies, driving the future of work through remote collaboration. The Lead Data Engineer will lead the development of the company’s data ecosystem, designing and implementing a data platform. This role involves close collaboration with product and technical teams to enable data-driven insights, real-time personalization, predictive modeling, and targeted marketing initiatives, while defining the architecture, tools, and strategy for data pipelines, data lakes, cloud data warehousing, and integrations. .

Apply without intermediaries from Get on Board.

Funciones del cargo

  • Lead the design and implementation of a scalable Customer Data Platform (CDP) integrating batch and real-time data from multiple sources (DMS, CRMs, social networks, web traffic).
  • Design and develop data pipelines using tools like Fivetran, dbt, Apache Spark, and Airflow to ensure high-performance, reliable data flow.
  • Architect and manage data lakes and cloud data warehouses (e.g., BigQuery, Redshift, Snowflake, Databricks).
  • Build and optimize streaming pipelines with GCP Pub/Sub, Kafka, or AWS SNS to support real-time analytics and personalization.
  • Develop integrations with Customer Data Platforms (CDPs) such as Twilio Segment or RudderStack and connect with marketing automation systems.
  • Collaborate with Product, Engineering, and Data Science teams to deliver data-driven insights powering personalization, predictive modeling, and segmentation.
  • Ensure strong alignment between data initiatives and the product roadmap, prioritizing data products that deliver measurable customer impact.
  • Define architecture and strategy for multi-tenant SaaS data solutions, ensuring scalability, reliability, and data security.
  • Drive adoption of modern technologies and best practices in data engineering, promoting a culture of technical excellence.
  • Maintain high standards for data quality, governance, and compliance with industry regulations.

Requerimientos del cargo

  • 8+ years of professional experience in data engineering, with deep expertise in both batch and streaming data architectures.
  • Proven experience building scalable ETL/ELT pipelines and distributed data processing frameworks.
  • Strong proficiency in Python and modern ETL tools (GCP Cloud Dataflow, Fivetran, dbt, Apache Spark).
  • Hands-on experience with cloud-based data platforms such as BigQuery, Snowflake, Redshift, or Databricks.
  • Solid understanding of Customer Data Platforms (CDPs) like Twilio Segment or RudderStack.
  • Experience with streaming technologies (GCP Pub/Sub, Kafka, AWS SNS) is highly desirable.
  • Background in multi-tenant SaaS architectures is a strong plus.
  • GCP.

Condiciones

  • USA Contractor
  • 100% Remote
  • Holidays Off
  • Paid Time Off
  • Health Insurance Assistance Program
  • Excellent teamwork and work environment
  • Training and upskilling opportunities
  • High-impact role shaping the company’s data ecosystem and AI capabilities

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 2600 Tiempo completo
DBA Oracle
  • Coderslab.io
Python SQL Oracle Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is published by getonbrd.com.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).
Habilidades:
- Competencia avanzada en administración de bases de datos Oracle, incluyendo versiones recientes (Oracle 19c o superior).
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM (Automatic Storage Management), y Oracle Multitenant.
- Experiencia en Oracle Cloud Infrastructure (OCI) y otras nubes públicas, como Azure o AWS (deseable).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- Conocimientos en PLSQL y tunning a sentencias SQL

Condiciones

Disponibilidad: Inmediata.
Horario de Chile

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python Data Analysis SQL

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Originally published on getonbrd.com.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.
  • Algunos proyectos pueden incluir desafíos complejos en visión por computador.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero de Datos Databricks
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
BC Tecnología es una consultora de TI con experiencia en infraestructuras, desarrollo de software y unidades de negocio, apoyando clientes en sectores financieros, seguros, retail y gobierno. El proyecto descrito implica la modernización de plataformas analíticas mediante pipelines de datos escalables y de alto rendimiento en entornos cloud. El seleccionado jugará un rol clave en diseño, construcción y mantenimiento de pipelines ETL/ELT en Databricks, promoviendo DataOps, governanza de datos y colaboración entre analítica, ciencia de datos y arquitectura para estandarizar modelos de datos y garantizar calidad, disponibilidad y trazabilidad para la toma de decisiones.

This job offer is available on Get on Board.

Funciones

  • Diseñar y desarrollar pipelines ETL/ELT en Databricks (Spark, Delta Lake, PySpark, SQL).
  • Integrar fuentes de datos estructuradas y no estructuradas desde múltiples orígenes (APIs, bases de datos, streaming, etc.).
  • Implementar prácticas de DataOps, versionado y automatización de flujos.
  • Optimizar rendimiento y costos de cargas en AWS/Azure.
  • Colaborar con equipos de analítica, ciencia de datos y arquitectura para definir estándares de modelado y gobierno de datos.

Requisitos y perfil

  • 3+ años de experiencia en ingeniería de datos o roles similares.
  • Experiencia demostrable en Databricks (Spark, Delta Lake, notebooks, clusters).
  • Dominio de SQL avanzado y Python o Scala.
  • Experiencia en entornos Cloud (AWS, Azure o GCP).
  • Conocimientos en CI/CD, Git y herramientas de orquestación (Airflow, Azure Data Factory, etc.).
  • Deseable: experiencia en modelado de datos, data lakes y data warehouses.
  • Certificaciones Databricks o Cloud son valoradas.
  • Conocimiento de arquitecturas modernas de datos (Lakehouse, medallion architecture) y herramientas de visualización como Power BI o Tableau.

Perfil deseable

  • Experiencia en proyectos de datos a gran escala y en entornos regulados.
  • Enfoque proactivo, orientado a resultados y capacidad de trabajo en equipo.
  • Buenas habilidades de comunicación y capacidad de traducir requerimientos de negocio en soluciones técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Scientist Senior Freelance AWS/Sagemaker
  • CoyanServices
Python SQL Virtualization Big Data

CoyanServices busca apoyar a un cliente regional a través de una empresa tecnológica privada. El proyecto es 100% remoto y freelance, abierto a profesionales de cualquier país de Latinoamérica. Trabajarás en un entorno tecnológico moderno, con foco en soluciones analíticas para decisiones estratégicas. El equipo utiliza AWS para desplegar soluciones de ML/AI y necesitamos un Data Scientist Senior para diseñar, entrenar y desplegar modelos end‑to‑end, estandarizar ingesta y gobierno de datos en el Data Lake, y traducir insights técnicos en productos analíticos utilizables para decisiones de negocio.

Objetivos del rol:

Diseñar, entrenar y desplegar modelos de ML/AI end-to-end sobre infraestructura AWS.

Estandarizar procesos de ingesta, limpieza y gobierno de datos en el Data Lake.

Traducir insights técnicos en productos analíticos útiles para la toma de decisiones.

© Get on Board. All rights reserved.

Funciones

Ingeniería de datos: Pipelines en S3, Glue, Lambda, Athena. Feature engineering, validación y monitoreo de calidad.

Modelado estadístico y ML: Regresión, clasificación, series de tiempo, NLP. Evaluación rigurosa y documentación técnica.

Deployment y MLOps: Productización en SageMaker/Lambda. CI/CD, versionamiento y monitoreo de modelos.

Análisis y comunicación: Dashboards, storytelling y soporte a decisiones estratégicas.

Gobierno y ética de datos: Mejores prácticas, documentación, reproducibilidad y cumplimiento normativo.

Requisitos y perfil

Formación en Ingeniería, Estadística, Matemáticas, Ciencias de la Computación o afines.

Python avanzado (pandas, numpy, scikit-learn, PyTorch/TensorFlow deseable).

Experiencia comprobable con AWS: S3, Athena, Data Lake, Lambda, SageMaker Studio.

Sólida base en estadística aplicada e inferencia. • Experiencia completa en ciclos de vida ML/AI.

SQL avanzado (Athena, Presto, Redshift).

Control de versiones, documentación y testing de modelos/datos.

Deseables: Conocimientos en PySpark o SparkSQL. • Visualización con herramientas como Power BI.

Habilidades blandas

Pensamiento crítico y enfoque científico.

Autonomía, comunicación efectiva y colaboración.

Curiosidad y aprendizaje continuo.

Beneficios

Freelancer. Oportunidad de trabajar con una empresa tecnológica líder y un cliente regional. Modalidad 100% remota, flexible, con posibilidad de crecimiento profesional. Participación en proyectos estratégicos y exposición a tecnologías punteras en AWS y ML/AI. Agenda y horarios acordes al trabajo remoto. Si te interesa, te invitamos a aplicar para conversar sobre el encaje y próximos pasos.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1900 - 3000 Tiempo completo
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

This job is available on Get on Board.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Senior Ingeniero de Datos
  • Devsu
  • Quito (Hybrid)
Java Python SQL NoSQL

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales. Nuestro equipo trabaja desde más de 18 países del mundo en diversos productos de software y áreas de trabajo.

Tendrás la oportunidad de estar en un ambiente multicultural y con una estructura horizontal, en donde el trabajo en equipo, aprendizaje continuo y la flexibilidad serán elementos muy presentes.

Buscamos un Ingeniero de Datos, para trabajar de forma hibrida desde Quito, Ecuador en proyectos retadores del sector financiero/bancario.

Job source: getonbrd.com.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.

Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer Senior – Especialista en Databricks (AWS)
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL NoSQL Business Intelligence
En BC Tecnología trabajamos como consultora de TI que administra portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales para clientes en servicios financieros, seguros, retail y gobierno. Como Data Engineer Senior – Especialista en Databricks (AWS), te incorporarás a un equipo orientado al análisis y disponibilidad de datos estratégicos para la toma de decisiones del negocio. Participarás en proyectos de datos en la nube, diseñando soluciones escalables y eficientes que aprovechen Databricks sobre AWS, manteniendo y mejorando pipelines y ETLs para entregar datos confiables a usuarios y perfiles analíticos.
La posición se alinea con nuestra apuesta por soluciones en la nube, prácticas de desarrollo ágil y enfoque al cliente, con oportunidades de crecimiento profesional dentro de un entorno colaborativo y dinámico.

Official source: getonbrd.com.

Funciones

  • Diseñar y desarrollar ETLs y Data Pipelines escalables sobre Databricks.
  • Operar con alta autonomía, gestionando backlog y entregables de forma independiente.
  • Gestionar la ingesta, transformación y almacenamiento de datos desde múltiples fuentes.
  • Implementar y optimizar soluciones cloud (preferencia AWS).
  • Traducir requerimientos de negocio en soluciones analíticas efectivas.
  • Promover buenas prácticas de ingeniería de datos y apoyar técnicamente a perfiles mid.

Descripción

Buscamos un Data Engineer Senior altamente autónomo y orientado a resultados, capaz de diseñar, construir y mantener pipelines de datos robustos y eficientes en entornos cloud, con foco en Databricks. Su misión será facilitar el acceso e interpretación de datos estratégicos que potencien la toma de decisiones del negocio.
Requisitos clave incluyen experiencia sólida en Databricks, conocimiento en reportería (Power BI o Metabase) y habilidades de autogestión y liderazgo técnico individual. Se valora experiencia en retail, conocimientos en cloud (ideal AWS), SQL, NoSQL y Data Warehouses, y familiaridad con servicios AWS (Glue, Airflow, Redshift, etc.).

Deseables

Experiencia previa en retail. Conocimientos en cloud computing (ideal AWS). Experiencia en SQL, NoSQL, Data Warehouses. Familiaridad con servicios AWS (Glue, Airflow, Redshift, etc.). Conocimientos básicos en Python o Java. Mentalidad analítica orientada al negocio. Experiencia con metodologías ágiles.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer
  • ARKHO
Python Analytics Virtualization Amazon Web Services
ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!

Apply exclusively at getonbrd.com.

🎯 Objetivo del rol

Liderar y ejecutar el desarrollo de pipelines de datos en proyectos de analytics, con una visión integral de arquitectura de datos end to end. Se espera que aplique su experiencia técnica para fomentar la mejora continua, el cumplimiento de objetivos y la entrega de productos tecnológicos de alta calidad. Será un referente técnico dentro del equipo, aportando conocimientos en herramientas, lenguajes e infraestructura, y participando activamente en la generación de soluciones robustas y escalables.
Funciones Principales:
  • Colaborar estrechamente con el líder de equipo y el equipo de implementación, entregando visibilidad técnica del avance de las iniciativas.
  • Apoyar en la definición, estimación y planificación de tareas para productos analíticos bajo metodologías ágiles.
  • Liderar la gobernanza técnica de la solución junto al cliente, participando en decisiones clave.
  • Diseñar e implementar arquitecturas de soluciones de datos en la nube de forma colaborativa.
  • Participar en el modelado de datos y desarrollo de modelos analíticos corporativos.
  • Investigar y profundizar en tecnologías necesarias para alcanzar los objetivos del proyecto.

🏹 Perfil del Archer

En ARKHO valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:
  • Al menos 3 años en proyectos de analítica de datos.
  • Dominio avanzado de al menos un lenguaje de programación, preferiblemente Python.
  • Sólidos conocimientos en herramientas y servicios de datos en AWS (Glue, Lambda, S3, Athena, Redshift, Step Functions).
  • Experiencia en el uso de AWS CDK (Cloud Development Kit) para la definición de infraestructuras como código (altamente valorada).
  • Experiencia en diseño de pipelines de datos y orquestación (por ejemplo, Airflow, Step Functions).
  • Familiaridad con arquitecturas modernas de datos como Data Lakes, Data Warehouses o Lakehouses.
  • Experiencia o conocimientos en modelado de datos utilizando enfoques como modelo dimensional, estrella y copo de nieve.

🌟 Beneficios del Archer

En ARKHO fomentamos una cultura de aprendizaje continuo, impulsamos la innovación tecnológica y promovemos un entorno de trabajo flexible, inclusivo y respetuoso, que valora tanto el desarrollo profesional como el bienestar personal.
📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
🩺 Seguro Complementario de Salud (Chile) o Bono de Salud
❤️ Bonda (plataforma de descuentos y bienestar)
💰 Aguinaldos
🧘‍♀️ ARKHO Open Doors

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Education stipend ARKHO covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Technical Lead
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile Git
BC Tecnología es una consultora de TI con amplio expertise en áreas de Infraestructura, Desarrollo de Software y Servicios de outsourcing. Participamos en proyectos para clientes de servicios financieros, seguros, retail y gobierno, diseñando soluciones escalables y alineadas a los objetivos del negocio. Nuestra propuesta incluye gestión de portafolio, desarrollo de proyectos y formación de equipos ágiles, con enfoque en cambio organizacional y desarrollo de productos. En este role, el Data Technical Lead liderará arquitecturas de datos avanzadas en AWS dentro de proyectos innovadores, asegurando soluciones seguras y eficientes que impulsen el negocio de nuestros clientes.

Apply to this job opportunity at getonbrd.com.

Funciones

  • Diseñar e implementar arquitecturas de datos avanzadas en AWS, enfocadas en soluciones escalables, seguras y alineadas a los objetivos del negocio.
  • Definir estándares técnicos, tomar decisiones sobre herramientas y tecnologías, y actuar como referente técnico dentro del equipo.
  • Ejecutar y guiar la ejecución de prácticas de mentoría técnica para el desarrollo del equipo y la transferencia de conocimiento a stakeholders.
  • Participar en la definición de estrategias de gobernanza de datos, seguridad, cumplimiento y optimización de costos en entornos cloud.
  • Liderar iniciativas de procesamiento batch y near real-time (por ejemplo, AWS Lambda, Step Functions, MWAA/Airflow) y orquestación de flujos de datos.
  • Trabajar con tecnologías de almacenamiento y procesamiento (Parquet, Iceberg), y gestionar SQL/NoSQL con AWS Glue Catalog e Infraestructura como código (Terraform/CloudFormation).
  • Colaborar con equipos de ingeniería, producto y negocio para traducir requerimientos en soluciones técnicas efectivas, dentro de metodologías ágiles (Scrum/Kanban).

Descripción

Buscamos un profesional senior para liderar la estrategia técnica de datos dentro de proyectos en AWS. El/la candidato/a ideal posee experiencia comprobable en arquitecturas Medallion en entornos cloud, desarrollo y orquestación de pipelines batch y near real time, y un sólido dominio de Python, Java o Scala, Spark/Pandas y programación distribuida. Deberá demostrar experiencia en arquitecturas serverless (EMR, Glue, Lambda), manejo de formatos como Parquet e Iceberg, control de versiones (Git), prácticas de CI/CD y conocimiento de gobernanza y seguridad en AWS. Se valora experiencia en mentoría técnica, liderazgo en entornos ágiles y capacidad de comunicar ideas complejas a stakeholders.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $1900 - 2500 Tiempo completo
Data Engineer (Azure / AWS)
  • Devups
Python SQL Virtualization Amazon Web Services

En Devups, ofrecemos un servicio de staff augmentation que permite incorporar desarrolladores y técnicos a tu empresa sin gestionar reclutamiento, contratación ni costes asociados. Nuestro enfoque flexible facilita añadir, intercambiar o reducir recursos de desarrollo de forma rápida, manteniendo la responsabilidad y reduciendo la fricción operativa. Trabajamos para que nuestros clientes escalen sus capacidades tecnológicas con rapidez y sin la carga de una estructura interna permanente.

Como parte de nuestro equipo, el proyecto de Data Engineering se centrará en diseñar soluciones robustas y escalables para flujos de datos en la nube, colaborando con analítica y ciencia de datos para decisiones basadas en datos de calidad. Buscamos un perfil que contribuya a la modernización de pipelines, data lakes y data warehouses, aplicando buenas prácticas de seguridad, gobernanza y costo-eficiencia para entornos Azure y AWS.

Find this vacancy on Get on Board.

Funciones

  • Diseñar y desarrollar pipelines ETL/ELT en entornos cloud (Azure Data Factory, Databricks, Synapse; AWS Glue, Lambda, S3).
  • Integrar, transformar y limpiar grandes volúmenes de datos provenientes de múltiples fuentes para su consumo en analítica y ML.
  • Administrar y optimizar data lakes y data warehouses (Snowflake, Redshift, Synapse, BigQuery según el stack del cliente).
  • Implementar versionado, gobernanza, seguridad y monitoreo continuo de datos; gestionar costos y performance tuning en nube.
  • Colaborar estrechamente con equipos de analítica, ciencia de datos y desarrollo para entregar soluciones centradas en negocio.
  • Participar en prácticas de CI/CD y, si aplica, contenerización con Docker y flujos de orquestación (Airflow, Prefect o similar).

Descripción

Buscamos un Data Engineer con experiencia en el diseño, construcción y optimización de pipelines de datos en la nube ( Azure o AWS ). El objetivo es asegurar el flujo confiable, escalable y seguro de datos desde múltiples fuentes hacia sistemas analíticos o de machine learning, soportando decisiones de negocio basadas en información de calidad. Requisitos clave: +3 años de experiencia en Data Engineering, experiencia en Azure (Data Factory, Databricks, Synapse) o AWS (Glue, Redshift, Lambda, S3), sólidos conocimientos en Python y SQL, modelado de datos, pipelines, APIs y orquestación (Airflow, Prefect o similar), inglés técnico. Se valoran Docker, CI/CD, herramientas de MLOps y certificaciones en Azure o AWS. Ofrecemos un proyecto desafiante con tecnologías cloud y trabajo remoto con horarios flexibles, en un equipo técnico de alto nivel.

Desirable

Experiencia adicional en seguridad de datos, costos y performance tuning en cloud. Conocimientos de seguridad de datos, cumplimiento de normativas y experiencia con herramientas de monitoreo y observabilidad. Capacidad para trabajar de forma autónoma, con buen manejo de prioridades y comunicación clara en entornos multiculturales. Preferible experiencia trabajando en proyectos con impacto directo en negocio y con clientes o equipos remotos.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero/a de Datos GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile SQL Business Intelligence
BC Tecnología es una consultora de TI que acompaña a sus clientes en la gestión de proyectos, outsourcing y selección de profesionales. El/la Ingeniero/a de Datos reportará al área de Data y trabajará en proyectos innovadores para clientes de diversos sectores, principalmente en soluciones basadas en nube (AWS y Google Cloud) y en entornos de gobierno y control de datos. El proyecto se enfocará en garantizar calidad, trazabilidad y gobernanza de datos en el datalake corporativo, facilitando el acceso a insights a través de dashboards y reportes para áreas de negocio y BI.

© Get on Board. All rights reserved.

Principales funciones

  • Diseñar, desarrollar y mantener procesos ETL/ELT para ingestión y transformación de datos.
  • Implementar y administrar soluciones de almacenamiento y procesamiento en AWS (S3, Glue, Athena) y Google Cloud cuando corresponda.
  • Ejecutar auditorías de calidad de datos, asegurando consistencia y cumplimiento de estándares.
  • Documentar estructuras, modelos y flujos mediante diccionarios y catálogos técnicos.
  • Desarrollar y mantener dashboards analíticos en Looker Studio y Metabase.
  • Participar en mesas de calidad y riesgo de datos, aportando análisis técnicos y propuestas de mejora.
  • Colaborar con equipos de Arquitectura, BI y Seguridad en la reingeniería de la arquitectura de datos.
  • Automatizar procesos de carga y monitoreo mediante scripting en Python o PySpark.

Requisitos y habilidades

Buscamos un/a Ingeniero/a de Datos con experiencia demostrable diseñando y manteniendo flujos de datos para operaciones analíticas y reporting. Se requiere un enfoque sólido en calidad, integridad y trazabilidad de datos, así como capacidad de trabajar en entornos de gobernanza y cumplimiento. Se valorará habilidades para colaborar con múltiples equipos y para traducir necesidades de negocio en soluciones técnicas escalables.
Requisitos mínimos:
  • Experiencia en diseño, desarrollo y puesta en producción de procesos ETL/ELT.
  • Conocimientos avanzados de AWS (S3, Glue, Athena) y experiencia con al menos una nube adicional (GCP o similar).
  • Conocimientos de bases de datos y modelado de datos, diccionarios y catálogos técnicos.
  • Experiencia en herramientas de BI y visualización de datos (Looker Studio, Metabase o similares).
  • Habilidad para escribir scripts en Python o PySpark para automatización y monitoreo.
  • Buenas habilidades de comunicación y trabajo en equipo, orientación a resultados y capacidad de gestionar prioridades en entornos dinámicos.
Deseables:
  • Conocimientos de gobernanza de datos, calidad de datos y marcos de cumplimiento.
  • Experiencia en orquestación de flujos y soluciones de data lake en entornos multi-nube.
  • Conocimiento de SQL avanzado y optimización de consultas.
  • Participación en prácticas ágiles y metodología DevOps para datos.

Requisitos deseables

Se valorarán certificaciones en AWS o Google Cloud, experiencia en proyectos de transformación de datos, y la capacidad de trabajar en un entorno con clientes de diversos sectores. Buscamos personas proactivas, con mentalidad de aprendizaje continuo, pensamiento analítico y habilidades para comunicar hallazgos técnicos a audiencias no técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Senior Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Web server
BC Tecnología es una consultora de TI que implementa soluciones para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un Senior Data Engineer para liderar y ejecutar iniciativas de datos de alto impacto dentro de un entorno ágil. El equipo de datos se enfoca en diseñar soluciones escalables de ingesta, procesamiento y gobierno de datos, alineadas a objetivos de negocio y a las mejores prácticas de arquitectura de datos moderno. El rol implica colaborar con líderes técnicos, arquitectos de datos y equipos multidisciplinarios para entregar pipelines robustos que impulsen decisiones basadas en datos y la generación de valor para los clientes. Formarás parte de proyectos innovadores y de alto nivel, con un enfoque en calidad, rendimiento y gobernanza de datos.

Apply exclusively at getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines de datos eficientes para mover, transformar y procesar grandes volúmenes de información.
  • Asegurar la calidad, resiliencia y confiabilidad de procesos mediante pruebas, monitoreo y prácticas de observabilidad.
  • Implementar flujos CI/CD para integración y despliegue continuo en entornos de desarrollo y producción.
  • Aplicar patrones de diseño avanzados en pipelines (resiliencia, idempotencia, event-driven).
  • Contribuir al gobierno y la calidad de datos mediante gestión de metadatos, catálogos y trazabilidad de datos.
  • Colaborar con equipos multidisciplinarios para mejorar la eficiencia y escalabilidad de las soluciones de datos.
  • Adherirse a guías y mejores prácticas definidas por líderes técnicos y arquitectos de datos.

Qué esperamos del candidato

Buscamos un profesional con más de 2 años de experiencia en diseño y construcción de pipelines de datos, capaz de trabajar con volumen, variedad y velocidad de datos. Debe dominar lenguajes de programación como Python, SQL y, preferiblemente, Scala. Se valorarán conocimientos en tecnologías de orquestación como Apache Airflow, Mage, NiFi u otros orquestadores equivalentes, así como experiencia con herramientas de CI/CD (Git, Jenkins, GitLab CI o similares). El candidato ideal entiende conceptos de calidad y gobierno de datos, y tiene experiencia con programación distribuida o frameworks como Spark o Databricks. Se valorarán habilidades de comunicación, trabajo en equipo, orientación a resultados y capacidad para resolver problemas complejos en entornos dinámicos.

Requisitos deseables

Conocimientos en arquitecturas modernas de datos, experiencia con herramientas de data catalog y linaje de datos, y exposición a entornos regulados. Experiencia práctica en entornos de nube (AWS, y experiencia en diseño de soluciones de datos para sectores regulados. Capacidad de interpretar requerimientos de negocio y traducirlo en soluciones técnicas escalables, con habilidades de liderazgo técnico para guiar a equipos más jóvenes.

Beneficios y entorno de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero/a de Datos AWS (Latam)
  • BC Tecnología
Python SQL Virtualization Amazon Web Services
En BC Tecnología buscamos un/a Ingeniero/a de Datos para LATAM, que se sume a un proyecto estratégico de pricing, con el desafío de diseñar, implementar y optimizar arquitecturas de datos escalables, asegurando la calidad, trazabilidad y disponibilidad de la información. El rol implica diseñar y mantener pipelines de ingestión, transformación y publicación de datos, así como implementar modelos de datos para análisis, reportería y pricing dinámico. Se trabajará con datos de múltiples fuentes, incluyendo sistemas legacy y plataformas cloud, promoviendo gobernanza y buenas prácticas.

Apply through Get on Board.

Funciones principales

  • Diseñar y mantener pipelines de ingestión, transformación y publicación de datos.
  • Implementar modelos de datos para análisis, reportería y pricing dinámico.
  • Asegurar calidad y gobernanza de datos mediante métricas y herramientas (dbt, Great Expectations).
  • Integrar datos de múltiples fuentes, incluyendo sistemas legacy y plataformas cloud.
  • Brindar mentoría técnica a otros ingenieros y participar en decisiones de arquitectura.

Descripción del rol

Buscamos un/a Ingeniero/a de Datos con >=3 años de experiencia en ingeniería de datos, preferentemente en sectores de retail o pricing. Debe dominar Python (PySpark, Pandas) y SQL a nivel avanzado, así como experiencia en AWS (Glue, Athena, Redshift, EMR, MWAA) y orquestación (Airflow). Se valoran conocimientos en arquitecturas event-driven y microservicios, así como experiencia en CI/CD (GitLab, Terraform, Docker/Kubernetes). Se espera proactividad, capacidad de liderazgo técnico y aptitud para trabajar de forma colaborativa en equipos multidisciplinarios.

Competencias y perfiles deseados

Competencias clave incluyen proactividad, liderazgo técnico, orientación a resultados y alta capacidad de análisis. Se valorará experiencia en ambientes ágiles, habilidad para comunicar conceptos técnicos a stakeholders y capacidad de mentoría para equipos de datos.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2000 Tiempo completo
Data Scientist
  • Artefact LatAm
Python Analytics Git SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply at the original job on getonbrd.com.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3000 Tiempo completo
Ingeniero/a de Datos AWS (Latam)
  • BC Tecnología
Python Hadoop Virtualization Big Data
En BC Tecnología diseñamos soluciones de TI para clientes de sectores financieros, seguros, retail y gobierno. Como parte de nuestro equipo de datos, lideramos iniciativas de arquitectura y desarrollo de soluciones de datos en la nube (AWS) para LATAM. Nuestro objetivo es entregar plataformas escalables, seguras y costo-eficientes que soporten operaciones críticas y análisis estratégicos. Trabajamos en un entorno ágil con enfoque en gobernanza de datos, seguridad y excelencia operativa, colaborando estrechamente con equipos de negocio para traducir requerimientos en soluciones técnicas robustas.

Send CV through Get on Board.

Funciones principales

Diseñar e implementar arquitecturas de datos escalables en AWS, priorizando rendimiento, seguridad y costos. Definir estándares y buenas prácticas en pipelines de datos y data engineering. Gestionar grandes volúmenes (Big Data) con herramientas como EMR, Redshift, Spark/Hadoop, asegurando ingestión, procesamiento y almacenamiento eficientes. Seleccionar servicios AWS adecuados para resolver desafíos técnicos y entregar soluciones alineadas con la estrategia del negocio. Liderar, guiar y desarrollar a ingenieros junior y semi-senior mediante revisión de código, mentoría y coaching técnico. Garantizar gobernanza de datos, políticas de seguridad y cumplimiento, así como monitoreo de operaciones y optimización de costos. Orquestar procesos con Airflow o Step Functions, asegurando trazabilidad y resiliencia de las pipelines. Colaborar con equipos de negocio para traducir requerimientos técnicos en soluciones efectivas y escalables.

Descripción del rol

Buscamos un Ingeniero/a de Datos con al menos 4 años de experiencia trabajando en entornos de nube especializados en AWS. El/la candidato/a ideal liderará iniciativas de arquitectura de datos, diseñará pipelines robustos y funcionará como referente técnico dentro del equipo. Debe tener experiencia en liderar equipos técnicos bajo metodologías ágiles, capacidad de comunicación para traducir problemas complejos a soluciones prácticas y un enfoque proactivo hacia la optimización de rendimiento, seguridad y costos. Se valorará experiencia con modelos de datos medallion y herramientas de observabilidad y monitoreo (CloudWatch, X-Ray).
Deseable experiencia en proyectos FinTech o servicios financieros, conocimiento de Python, Java o Scala, experiencia con Pandas y PySpark, y manejo de herramientas de CI/CD (Git, versionamiento de código). Conocimiento en DBT, Glue Data Catalog y formatos de datos como Parquet o Iceberg. Certificaciones de AWS (por ejemplo, AWS Data Analytics o AWS Solutions Architect) serán valoradas. Excelentes habilidades de comunicación y capacidad de trabajar en un entorno colaborativo y de alto rendimiento.

Conditions

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2200 - 2400 Tiempo completo
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Virtualization Amazon Web Services Cloud Computing Data Engineer
BC Tecnología es una consultora de TI con enfoque en soluciones para clientes de servicios financieros, seguros, retail y gobierno. El proyecto actual se centra en data engineering con AWS, buscando optimizar la ingesta, procesamiento y gobernanza de datos dentro de una arquitectura escalable y segura. El rol forma parte de un equipo orientado a entregar soluciones innovadoras en un entorno con metodologías ágiles, enfocándose en pipelines de datos y en garantizar calidad y gobernanza de la información para clientes de alto perfil.

Apply only from getonbrd.com.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos en AWS, asegurando rendimiento, escalabilidad y confiabilidad.
  • Participar en la definición de arquitectura de datos, modelado y gobernanza de datos.
  • Colaborar con equipos de ingeniería, análisis y negocio para traducir requerimientos en soluciones técnicas robustas.
  • Implementar prácticas de monitoreo, logging y seguridad de datos; optimizar costos y recursos en la nube.
  • Realizar pruebas, validación de datos y aseguramiento de calidad en flujos de datos complejos.
  • Documentar soluciones y promover buenas prácticas de desarrollo y deployment.

Descripción

  • Buscamos un Data Engineer con experiencia en AWS para un proyecto de 5 meses en el sector tecnológico. El candidato ideal tendrá al menos 3 años de experiencia en entornos AWS, con experiencia en diseño y manejo de pipelines de datos y conocimientos en gobierno y modelamiento de datos.
  • El rol requiere colaboración estrecha con equipos multidisciplinarios, implementación de soluciones de datos escalables y adherentes a políticas de seguridad y cumplimiento.
  • Se trabajará en un entorno híbrido, con 2-3 días presenciales en Mall Alto Las Condes, y la posibilidad de flexibilidad según las necesidades del proyecto y del equipo.

Requisitos Deseables

  • Experiencia con herramientas de orquestación (por ejemplo, Apache Airflow) y servicios de datos en AWS (Redshift, S3, Glue, Athena, Lambda).
  • Conocimientos en gobierno de datos, modelado dimensional y normalización de datos.
  • Capacidad para trabajar en entornos ágiles, orientación a resultados y buenas habilidades de comunicación.
  • Certificaciones en AWS o similares serán valoradas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Power BI Developer
  • Signant Health
SQL Power BI Data Visualization Snowflake
This could be the Opportunity of Your Life!
At Signant Health, we’re transforming the clinical trial experience through technology and innovation. We support the world’s leading biopharma companies with eClinical solutions that make trials faster, easier, and more reliable — improving lives across the globe. As part of our continued growth, we’re looking for a creative and results-driven Power BI - Data Business Intelligence Developer, to join our global team.
Where do you fit in?

We are seeking an experienced Bilingual Power BI Developer to join our analytics team. The ideal candidate will have a strong background in designing and developing Power BI solutions, with advanced expertise in DAX, Paginated Reports, and SQL. Experience with Snowflake is a plus.

Apply to this job without intermediaries on Get on Board.

Job functions

  • Design, develop, and maintain Power BI dashboards and reports
  • Write complex DAX queries and calculations to support business requirements
  • Create and manage Paginated Reports for operational and regulatory needs
  • Develop and optimize SQL queries for data extraction and transformation
  • Collaborate with business stakeholders to gather requirements and deliver actionable insights
  • Ensure data accuracy, security, and performance across all reporting solutions
  • Integrate data from various sources, including Snowflake (nice to have)

Qualifications and requirements

  • 3+ years of hands-on Power BI development experience
  • Advanced proficiency in DAX and Power BI data modeling
  • Advanced English level
  • Strong experience with Paginated Reports (Report Builder/SSRS)
  • Expert-level SQL skills (T-SQL, query optimization, stored procedures)
  • Experience working with large datasets and complex data models
  • Excellent problem-solving and communication skills
  • Experience with Snowflake is a plus

Desirable skills

  • Experience with Snowflake data warehouse
  • Knowledge of AWS

Conditions

Pet-friendly Pets are welcome at the premises.
Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1800 - 2500 Tiempo completo
Technical Leader – Azure & AI
  • Devups
Analytics Virtualization Amazon Web Services Continuous Deployment

En Devups trabajamos como una solución de staff augmentation que permite a las empresas escalar equipos de desarrollo sin incurrir en procesos de reclutamiento y costes fijos. Nuestro enfoque está en liderar iniciativas de datos, IA y arquitecturas en la nube, con un equipo multidisciplinario que colabora para entregar soluciones de alto impacto. El/la Technical Leader – Azure & AI será parte de un equipo que diseña, guía y supervisa la implementación de soluciones complejas en Azure y servicios cognitivos, asegurando buenas prácticas, escalabilidad y calidad del código. El rol combina visión estratégica con ejecución técnica, impulsando la adopción de tecnologías punteras y la mejora continua en proyectos de macrodatos, IA y automatización. Trabajamos con modalidades de trabajo remoto global, fomentando un entorno flexible y orientado al desarrollo profesional.

Send CV through Get on Board.

Funciones y responsabilidades

• Liderar técnicamente proyectos de datos e inteligencia artificial, definiendo la visión arquitectónica y asegurando la gobernanza de soluciones en la nube.
• Guiar equipos multidisciplinarios (ingenieros de datos, ML engineers, DevOps) para entregar soluciones de analítica avanzada, IA y plataformas de datos a gran escala.
• Diseñar e impulsar la implementación de soluciones en Azure (Data Factory, Databricks, Azure Foundry, Fabric, Cognitive Services) y, cuando sea necesario, evaluar integraciones con AWS.
• Establecer prácticas de desarrollo, CI/CD, IaC, redes y monitoreo para garantizar calidad, rendimiento y seguridad.
• Participar en la resolución de problemas complejos, revisar código y promover buenas prácticas de diseño y gobernanza.
• Comunicarse con stakeholders, traducir requerimientos de negocio en soluciones técnicas y presentar avances de forma clara y concisa.
• Estar al tanto de tendencias en IA, modelos de lenguaje, visión por computadora y procesamiento de voz, proponiendo mejoras y nuevas oportunidades.

Descripción de perfil y habilidades

Buscamos un líder técnico con al menos 5 años de experiencia como desarrollador o en roles de explotación de datos, arquitectura o IA, y con mínimo 2 años liderando la ejecución de soluciones de analítica avanzada, IA o arquitecturas. El/la candidato/a debe tener formación en Ingeniería, Estadística, Matemáticas o carreras afines, y un nivel mínimo de inglés B2. Se valorarán experiencia práctica en Azure (y preferiblemente AWS), conocimiento profundo de herramientas de Azure como Data Factory, Databricks, Cognitive Services, así como experiencia en PySpark, CI/CD, IaC y conceptos de redes. Habilidades de visión estratégica, capacidad de guiar equipos, pensamiento analítico, comunicación efectiva y orientación a resultados son esenciales.

Requisitos deseables

Experiencia adicional en arquitecturas de datos a gran escala, experiencia con Databricks en entornos multi-nube, familiaridad con generación y despliegue de modelos de IA en producción, conocimiento de seguridad en la nube y cumplimiento normativo, así como habilidades de mentoría y gestión de stakeholders. Se valora proactividad, capacidad de influencia sin autoridad directa y capacidad para traducir necesidades de negocio en soluciones técnicas concretas.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación y el crecimiento profesional son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, facilitando el equilibrio entre vida personal y profesional.

Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos a la vanguardia.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer Senior
  • Equifax Chile
  • Santiago (Hybrid)
Python SQL Big Data BigQuery
Equifax Chile es un líder global confiable en datos, análisis y tecnología cuyo propósito es entregar insights que impulsan decisiones que avanzan a las personas y organizaciones. En nuestro núcleo comercial, los datos son mucho más que un recurso: son el fundamento de cada decisión estratégica que tomamos. Nuestra área de análisis de datos es clave para garantizar la calidad, integridad y utilidad de esta información vital a través de proyectos que potencian la inteligencia comercial, operaciones más eficientes, innovación en la gestión de datos y la automatización de procesos. Trabajamos con plataformas de análisis avanzadas y tecnologías cloud líderes para asegurar que los datos sean accesibles, confiables y estratégicos en cada área del negocio.

Send CV through Get on Board.

Responsabilidades del Puesto

  • Gestionar el ciclo completo de vida de los datos, desde la extracción, procesamiento y análisis hasta la interpretación y presentación de resultados mediante visualizaciones avanzadas.
  • Desarrollar análisis estadísticos profundos utilizando técnicas cuantitativas para identificar tendencias, patrones, inconsistencias y oportunidades que apoyen la toma de decisiones.
  • Diseñar e implementar automatizaciones para optimizar los flujos de trabajo y reducir el tiempo requerido para la generación de reportes y dashboards.
  • Colaborar estrechamente con equipos de negocio y áreas comerciales para comprender sus necesidades y traducirlas en soluciones analíticas efectivas y escalables.
  • Elevar los estándares de calidad del dato, detectando inconsistencias y definiendo mejores prácticas para garantizar la fiabilidad y la integridad de la información utilizada en todos los procesos.
  • Implementar soluciones escalables que fortalezcan la confianza en los procesos y reportes generados por la organización.
  • Participar activamente en equipos multifuncionales, asegurando la alineación de las soluciones analíticas con los objetivos estratégicos de la compañía.

Perfil y Competencias Requeridas

Buscamos un profesional con formación en Ingeniería Informática, Estadística, Matemática o carreras afines, con al menos 4 años de experiencia consolidada en análisis y manipulación de datos. Se requiere dominio avanzado en SQL, BigQuery y Python para el manejo y consulta de grandes volúmenes de datos, así como experiencia práctica en herramientas de visualización como Looker Studio o plataformas similares para presentar insights de manera efectiva.

El candidato ideal tendrá experiencia comprobada en la implementación de mejores prácticas para el manejo y control de calidad de datos, asegurando la integridad y consistencia en los procesos y resultados. Se valoran habilidades avanzadas de análisis estadístico y capacidad para interpretar información compleja y traducirla en soluciones de negocio claras.
En lo personal, se espera un perfil con pensamiento crítico, capacidad para resolver problemas complejos, comunicación efectiva, autonomía y proactividad, capaz de liderar iniciativas que generen impacto tangible en el negocio.

Habilidades y Conocimientos Deseables

Se valorará experiencia y conocimiento en herramientas y plataformas Cloud como Google Cloud Platform (GCP), Amazon Web Services (AWS) y Microsoft Azure, así como la participación en proyectos relacionados con modelado y arquitectura de datos. Contar con certificaciones o cursos especializados en GCP será un plus importante.
La experiencia en gestión de proyectos de tecnologías de la información y en ambientes colaborativos multifuncionales también será altamente apreciada, aportando al liderazgo y coordinación de iniciativas que integren las áreas técnicas y de negocio.

Beneficios y Cultura Organizacional

Ofrecemos una modalidad de trabajo híbrido con horarios flexibles que posibilitan un equilibrio saludable entre la vida personal y laboral. Además, concedemos días libres adicionales para fomentar el bienestar de nuestros colaboradores.
Nuestro paquete integral de compensación incluye seguro médico complementario y convenio con gimnasio para promover un estilo de vida saludable. Contamos con beneficios especiales para madres y padres dentro de la organización.
Facilitamos acceso a una plataforma de aprendizaje en línea para el desarrollo profesional continuo, junto con programas de reconocimiento que valorizan la contribución de cada integrante del equipo. Todo esto en un entorno de trabajo diverso, multicultural y enfocado en el crecimiento y la carrera profesional.

Wellness program Equifax Chile offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax Chile pays or copays life insurance for employees.
Health coverage Equifax Chile pays or copays health insurance for employees.
Dental insurance Equifax Chile pays or copays dental insurance for employees.
Computer provided Equifax Chile provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Equifax Chile gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3400 - 4400 Tiempo completo
Senior Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Ruby Python SQL
Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de seleccionar a los solicitantes de empleo. Fundada en 2014, Checkr pone la tecnología moderna impulsada por el aprendizaje automático en manos de los equipos de contratación, ayudando a contratar a grandes nuevas personas con una experiencia que es rápida, suave y segura. Checkr tiene más de 100.000 clientes, entre ellos DoorDash, Coinbase, Lyft, Instacart y Airtable.
Buscamos un Ingeniero de Datos Senior con experiencia para que se incorpore a nuestro equipo de operaciones de datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene los sistemas que realizan verificaciones de antecedentes precisas y eficientes.
Como ingeniero de datos sénior del equipo de operaciones de datos, trabajarás en proyectos de gran impacto que contribuyen directamente a la funcionalidad principal de los servicios de verificación de antecedentes de Checkr.

Send CV through getonbrd.com.

Responsabilidades del cargo

  • Crear y mantener canales de datos y conjuntos de datos fundamentales para satisfacer las necesidades del producto y del negocio.
  • Diseñar y construir arquitecturas de bases de datos con datos masivos y complejos, equilibrando la carga computacional y el coste.
  • Desarrollar auditorías para la calidad de los datos a gran escala, implementando alertas según sea necesario.
  • Crear paneles de control y informes escalables para apoyar los objetivos empresariales y permitir la toma de decisiones basada en datos.
  • Solucionar y resolver problemas complejos en entornos de producción.
  • Trabajar en estrecha colaboración con los gestores de productos y otras partes interesadas para definir e implementar nuevas funciones.

Calificaciones y Requisitos del cargo

  • Más de 5 años de experiencia en desarrollo de software full-stack.
  • Gran dominio de al menos uno de los siguientes lenguajes: Ruby (preferible), Python o Golang.
  • Experiencia en el procesamiento de datos a gran escala, tanto por lotes como en streaming.
  • Sólidos conocimientos de sistemas de bases de datos, tanto SQL como NoSQL.
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake, AWS Glue, Athena y S3.
  • Experiencia con ETL/ELT, procesamiento de datos en streaming y por lotes a gran escala.
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Experiencia con arquitectura de microservicios y API RESTful.
  • Fuertes habilidades para resolver problemas y atención al detalle.
  • Habilidades avanzadas de comunicación en inglés y capacidad para trabajar en un entorno colaborativo.

Competencias Deseables

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 3500 Tiempo completo
Data Scientist – LLM Expert
  • Niuro
Python Virtualization Amazon Web Services Azure
Niuro collaborates with leading U.S. companies by connecting them with elite, autonomous, high-performance tech teams worldwide. Through innovative solutions, Niuro simplifies global talent acquisition ensuring maximum efficiency and quality. Our teams focus on challenging projects involving advanced industrial data, where continuous professional growth and leadership development are core values. By handling the administrative side—hiring, payments, training—Niuro empowers specialists to deliver exceptional results while advancing their careers in a collaborative and stimulating environment.

Apply to this job at getonbrd.com.

About the Role

At Niuro, we are seeking a Data Scientist with expertise in Large Language Models (LLMs) to become an integral part of our engineering team. Your role will involve building intelligent agents that seamlessly integrate data, tools, and various models to produce measurable and impactful outcomes.
You will own the entire development loop: from framing complex problems and defining success criteria to developing, deploying, and maintaining efficient, trustworthy, and maintainable AI-powered solutions over time. Your work will be essential in advancing our data science capabilities and delivering reliable, production-grade features that leverage AI and LLM technologies.

Requirements

  • Solid, hands-on experience in classical Data Science techniques, including modeling, feature engineering, statistics, and experimentation.
  • Strong proficiency in Python programming is mandatory.
  • Proven production experience shipping AI/ML or LLM-powered features to live environments.
  • Experience working with at least one major cloud platform such as AWS, Azure, or Google Cloud Platform (GCP).
  • Professional proficiency in English to effectively communicate in a global team.
  • Systems thinking with the ability to understand data flows, failure modes, and optimize trade-offs related to cost, latency, and throughput.
  • Commitment to writing clean, testable, and maintainable code that meets industry best practices.
  • A strong respect for privacy, security, and operational reliability in AI systems.

Nice to Have

  • Experience building or maintaining Retrieval-Augmented Generation (RAG) systems, enhancing LLM responses with external knowledge bases.
  • Familiarity with tool/function calling mechanisms and Multi-Component Processing (MCP)-based integrations to extend AI capabilities.

Why Join Niuro?

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and foster professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere in the world. We invest in your career development through continuous training programs and leadership opportunities, ensuring that you grow and succeed alongside us.
Following successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to building lasting relationships with team members.
Join Niuro to be part of a global community committed to technological excellence, supported by a strong administrative infrastructure that lets you focus fully on delivering impactful work.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero de Datos Senior
  • foris.ai
Artificial Intelligence English Data Engineer Continual improvement process

Somos una empresa líder en Latinoamérica que ofrece soluciones cloud basadas en Inteligencia Artificial y servicios de consultoría para optimizar procesos críticos en la Educación Superior. Nuestro objetivo es transformar la experiencia digital de alumnos, docentes y staff académico mediante una suite de productos que automatizan más del 50% de las tareas manuales, optimizan hasta un 25% los costos y contribuyen a la reducción de la deserción estudiantil.

Contamos con más de 65 instituciones educativas clientes en 10 países, alcanzando a un millón de estudiantes. Buscamos expandir nuestra tecnología disruptiva a nuevos mercados internacionales, diseñando sistemas escalables capaces de soportar un crecimiento importante y diferentes ecosistemas complejos.

Somos un equipo multicultural y multidisciplinario que combina capacidades en ingeniería, matemáticas, desarrollo, diseño y consultoría, enfocados en llevar al sector EdTech a un nuevo nivel usando inteligencia artificial avanzada.

Find this job and more on Get on Board.

¿En qué consistirá tu trabajo?

  • Ser experto funcional de nuestra suite de soluciones, comprendiendo y dominando a fondo la lógica y arquitectura de cada aplicación.
  • Liderar la implementación y puesta en marcha de nuestros productos y sus integraciones para asegurar despliegues fluidos y exitosos en nuestros clientes.
  • Trabajar con consultas SQL avanzadas para explotar, transformar y analizar grandes volúmenes de datos con rigor y eficiencia.
  • Diseñar, desarrollar e implementar procesos ETL robustos para manejar grandes flujos de información alineados con las necesidades de las universidades y Foris.
  • Aplicar modelado, análisis y automatización de datos utilizando Python de forma estructurada y escalable.
  • Colaborar estrechamente con equipos internos multidisciplinarios y con clientes externos para diseñar soluciones técnicas innovadoras que aporten valor real al negocio.
  • Documentar detalladamente cada solución para garantizar su trazabilidad, mantenibilidad y calidad a largo plazo.

Stack de herramientas y tecnologías :
Herramientas:

  • Athena
  • Glue data catalog
  • Amazon S3
  • Cloudwatch AWS
  • IAM AWS
  • AWS CLI
  • Postman
  • JSON / RESTful APIs

Lenguajes

  • TrinoSql
  • MySQL
  • SparkSql
  • PySpark
  • Python
  • PostgresSql
  • YAML

Perfil del cargo

Buscamos profesionales con formación técnica rigurosa en Ingeniería de Sistemas, Matemáticas, Inteligencia Artificial, Ciencia de Datos o carreras afines. Es indispensable haber complementado cualquier formación que no sea estrictamente técnico-científica con educación y experiencia práctica.

El candidato ideal cuenta con al menos 5 años de experiencia profesional consolidada y mínima experiencia de 3 años en consultoría tecnológica y/o procesamiento y análisis avanzado de datos. Este puesto no es para perfiles juniors ni para quienes buscan un rol intermedio; está destinado a quienes desean escalar profesionalmente resolviendo desafíos complejos y reales.

Es fundamental poseer un entendimiento profundo tanto del negocio educativo como del ecosistema de datos y tecnología que soporta nuestras soluciones. Debe ser capaz de identificar ineficiencias, proponer soluciones innovadoras y ejecutar sin necesidad de supervisión constante.

Además, el rol requiere excelentes habilidades de comunicación, particularmente en redacción y verificación de información, tanto en español como en inglés, debido a la interacción con herramientas de Inteligencia Artificial generativa y de optimización. Se valoran especialmente competencias en generación y curaduría de prompts para IA.

Buscamos una persona proactiva, orientada a la mejora continua, capaz de transformar procesos, productos y flujos de trabajo mediante modelos de datos, visualización y automatización, que aporte prácticas y referencias que eleven el estándar técnico del equipo desde el primer día.

Competencias y conocimientos deseables

Se valorará experiencia previa en ambientes EdTech o en la educación superior, conocimiento avanzado en plataformas de nube, especialmente en arquitecturas escalables para grandes volúmenes de datos y familiaridad con herramientas de IA aplicadas a la optimización operacional.

Habilidades en manejo de metodologías ágiles y coordinación de equipos multidisciplinarios serán un plus para facilitar la integración y entrega de soluciones.

Además, se considerarán positivamente conocimientos en visualización avanzada de datos, manejo de tecnologías de integración de datos en tiempo real, y experiencia en diseño de arquitecturas data-driven.

Beneficios y cultura organizacional

En Foris valoramos la diversidad y el bienestar de nuestros colaboradores. Ofrecemos horarios flexibles que permiten compatibilizar trabajo con otras actividades, además de permitir días libres para trámites administrativos, cumpleaños y festividades importantes.

Contamos con jornadas reducidas cada quince días los viernes, iniciando a las 9:00 y finalizando a las 15:00 hrs, junto con un día completo de vacaciones canjeable para celebrar tu cumpleaños.

Nuestra cultura promueve un ambiente multicultural e inclusivo, con un equipo equilibrado en género y conformado por profesionales de diversas nacionalidades. No exigimos códigos de vestimenta para el día a día, salvo eventos con clientes.

Organizamos actividades de integración, viajes y retiros corporativos para fortalecer el espíritu de equipo en entornos distendidos y agradables.

El trabajo será hibrido en Bogotá, Colombia y remoto desde Chile.

Internal talks foris.ai offers space for internal talks or presentations during working hours.
Company retreats Team-building activities outside the premises.
Computer repairs foris.ai covers some computer repair expenses.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2300 - 2500 Tiempo completo
Analista Power BI
  • BC Tecnología
  • Santiago (Hybrid)
Data Analysis Excel SQL Business Intelligence
En BC Tecnología somos una consultora de Servicios IT con amplia experiencia en consultoría, desarrollo de proyectos, outsourcing y selección de profesionales. Creamos equipos de trabajo ágiles en áreas de Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio, para clientes de sectores financieros, seguros, retail y gobierno. En este proyecto estratégico de 6 meses, nos enfocamos en la generación de dashboards y soluciones analíticas mediante Power BI, que permitan apoyar la toma de decisiones basada en datos dentro de la organización y sus áreas internas.

Find this job and more on Get on Board.

Responsabilidades

  • Diseñar y mantener dashboards e informes utilizando Power BI.
  • Analizar datos para identificar oportunidades de mejora y resolver problemas de negocio.
  • Levantar requerimientos con áreas internas y proponer soluciones analíticas adecuadas.
  • Promover la alfabetización digital y el uso efectivo de herramientas analíticas en la organización.
  • Aplicar buenas prácticas en modelamiento de datos, visualización y asegurar la calidad de la información.

Requisitos

  • Dominio avanzado de Power BI, incluyendo DAX, modelado y visualización de datos.
  • Conocimientos sólidos en SQL y Excel, además de experiencia con herramientas como Tableau.
  • Deseable experiencia en plataformas cloud como BigQuery, AWS Redshift u otras similares.
  • Excelentes habilidades de comunicación y capacidad de análisis orientada al cliente interno.

Deseable

Se valorará experiencia adicional en manejo de plataformas en la nube para gestión y análisis de datos que complementen el trabajo en Power BI. También es deseable conocimiento en procesos de transformación digital y en promover el uso de analítica avanzada en diferentes áreas de la organización.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Virtualization Amazon Web Services
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

This job is available on Get on Board.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 3000 Tiempo completo
Ingeniero/a de Datos / AI
  • Devups
Python Agile MySQL PostgreSQL
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Apply to this job from Get on Board.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 2800 Tiempo completo
Data Scientist
  • Niuro
Python SQL Artificial Intelligence Machine Learning
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

Apply only from getonbrd.com.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 1700 Tiempo completo
Analista de Datos
  • BC Tecnología
  • Buenos Aires (Hybrid)
Python Data Analysis SQL Business Intelligence
En BC Tecnología, somos una consultora especializada en servicios IT, trabajando con clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de BI & Analytics juega un papel crucial en la optimización de procesos y toma de decisiones informadas mediante la administración y análisis de datos. Buscamos un Analista de Datos que se una a nuestro equipo, aportando experiencia y conocimiento en herramientas clave.

Apply to this job without intermediaries on Get on Board.

Responsabilidades

Como Analista de Datos, serás el representante del equipo de BI & Analytics en Argentina. Tus responsabilidades incluirán:
  • Desarrollar y optimizar consultas SQL para la extracción y transformación de datos.
  • Implementar y gestionar pipelines de datos en Databricks.
  • Aplicar Python para el procesamiento y análisis avanzado de datos.
  • Servir como enlace entre el equipo de BI & Analytics y las áreas de negocio en el país, asegurando que las iniciativas de BI estén alineadas con las necesidades estratégicas de la empresa.
  • Asegurar la calidad y disponibilidad de los datos para la toma de decisiones.
  • Colaborar con equipos multidisciplinarios para definir y mejorar modelos analíticos.

Requisitos

  • Experiencia sólida en desarrollo BI con SQL avanzado.
  • Conocimiento y experiencia en Databricks (deseable).
  • Habilidad en Python para manipulación y análisis de datos.
  • Experiencia en entornos de análisis y procesamiento de datos en la nube (Azure, AWS, GCP es un plus).

Habilidades Deseables

Buscamos a alguien que no solo cumpla con los requisitos técnicos, sino que también posea habilidades interpersonales para colaborar efectivamente con equipos diversos y facilitar la comunicación entre departamentos. La adaptabilidad y una mentalidad centrada en soluciones son altamente valoradas en nuestra cultura de trabajo.

Beneficios

En BC Tecnología, te ofrecemos un entorno laboral dinámico y colaborativo, con un modelo de trabajo híbrido que idealiza la integración entre lo presencial y lo remoto. Además, tendrás acceso a oportunidades de capacitación continua, un ambiente que fomenta la innovación y centenares de oportunidades para crecer profesionalmente al lado de expertos. Valoramos a nuestros colaboradores y buscamos su desarrollo constante.

Health coverage BC Tecnología pays or copays health insurance for employees.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Technical Product Manager
  • Dynamic Devs
  • Santiago (Hybrid)
Agile QA Scrum Product Manager

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

📢 En Dynamic Devs, estamos buscando un Technical Product Manager con iniciativa y ambición de crecimiento. Este rol es clave para guiar a nuestros equipos técnicos en proyectos desafiantes, asegurando que los objetivos técnicos se alineen con las metas comerciales del cliente. Es necesario que la persona se encuentre en Santiago de Chile para que pueda asistir a la oficina algunos días a la semana según la necesidad del proyecto.

Apply through Get on Board.

Funciones del cargo

  • Coordinar y supervisar proyectos de complejidad variable, asegurando la entrega dentro del tiempo y el presupuesto establecidos.
  • Actuar como punto de contacto entre los equipos de desarrollo y los stakeholders del cliente, facilitando una comunicación clara y eficiente
  • Participar en la definición de requisitos junto con el equipo de desarrollo y el cliente.
  • Gestionar el backlog y priorizar tareas de acuerdo a los objetivos del proyecto.
  • Apoyar en la implementación y mejora de procesos ágiles (Scrum, Kanban) dentro del equipo.
  • Identificar riesgos y proponer soluciones para mitigar problemas durante el ciclo de vida del proyecto.
  • Facilitar el descubrimiento técnico junto al equipo, asegurando que las soluciones propuestas se alineen con las expectativas del cliente.
  • Documentar decisiones técnicas y de producto, asegurando transparencia y trazabilidad en los proyectos.

Requerimientos del cargo

  • 2 a 3 años de experiencia en roles de gestión de proyectos o Technical Product Manager en proyectos de tecnología.
  • Experiencia con metodologías ágiles (Scrum, Kanban) y herramientas de gestión de proyectos como Jira, Trello, Notion, o similares.
  • Familiaridad con conceptos técnicos en desarrollo de software (QA, pipelines, cloud, APIs) para poder colaborar con equipos técnicos.
  • Excelentes habilidades de comunicación y experiencia en la gestión de la relación cliente-equipo.
  • Capacidad para identificar riesgos y priorizar soluciones.
  • Iniciativa y proactividad para liderar proyectos y equipos.
  • Excelentes habilidades interpersonales, con capacidad para trabajar con equipos diversos y multiculturales.
  • Fuerte habilidad de gestión del tiempo y manejo de proyectos simultáneos.

Modalidad de trabajo: Híbrida – Se requiere disponibilidad para trabajar de manera presencial en las oficinas del cliente cuando sea solicitado.

Opcionales

  • Experiencia previa en consultoría o gestión de proyectos de software en sectores como retail, seguros, finanzas, etc.
  • Habilidades avanzadas en gestión de métricas y evaluación de KPIs.
  • Deseo de crecimiento en la organización y asumir roles de mayor responsabilidad.
  • Conocimiento cloud a nivel ejecutivo (AWS, GCP)

Beneficios Dynamo!!

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Life insurance Dynamic Devs pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Education stipend Dynamic Devs covers some educational expenses related to the position.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Delivery Lead / Scrum Master
  • BC Tecnología
  • Santiago (Hybrid)
Agile SAP Virtualization Amazon Web Services
BC Tecnología es una consultora de TI que entrega soluciones a clientes de alto impacto en los sectores financiero, seguros, retail y gobierno. Enfocados en la gestión de proyectos, desarrollo ágil y entrega de valor, trabajamos con equipos multidisciplinarios para impulsar iniciativas estratégicas y transformaciones digitales. Nuestro equipo entrega servicios de consultoría, diseño de soluciones, outsourcing y desarrollo de proyectos, con foco en calidad, agilidad y resultados medibles. El Delivery Lead / Scrum Master se integrará a proyectos innovadores en un entorno colaborativo, con planes de crecimiento profesional y oportunidades para ampliar habilidades en metodologías ágiles, gestión de portfolio y operación de soluciones tecnológicas.

This company only accepts applications on Get on Board.

Funciones principales

  • Liderar e inspirar equipos multidisciplinarios, fomentando autonomía, foco y mentalidad de dueño.
  • Detectar necesidades del equipo y facilitar herramientas para mejorar el rendimiento colectivo.
  • Gestionar la ejecución de proyectos digitales, desde la planificación hasta la operación, asegurando el cumplimiento de KPIs, OKRs y compromisos.
  • Promover la mejora continua mediante métricas claras y prácticas de feedback efectivo.
  • Facilitar ceremonias ágiles: daily, sprint planning, reviews y retrospectivas.
  • Colaborar con áreas de negocio y tecnología para priorizar iniciativas y alinear esfuerzos con la estrategia organizacional.
  • Supervisar el ciclo de vida de soluciones tecnológicas, gestionando cronogramas, riesgos, recursos y desviaciones.
  • Remover impedimentos que afecten la agilidad o la entrega de valor.
  • Evaluar y proponer mejoras metodológicas o tecnológicas que impulsen innovación y eficiencia.

Requisitos y perfil

Requisitos obligatorios: Ingeniería Informática o carrera afín; >3 años liderando equipos TI bajo metodologías ágiles (Scrum, Kanban o híbridas); experiencia sólida en Gestión de Proyectos y metodologías ágiles; manejo de MS Project (mandatorio) y JIRA (mandatorio); dominio de plataformas en Cloud (AWS / Azure / Google Cloud Platform). Conocimientos adicionales deseables en Power BI y SAP.
Soft skills: liderazgo situacional, comunicación efectiva, capacidad de negociación y resolución de conflictos, orientación a resultados y pensamiento estratégico. Capacidad para trabajar en entornos dinámicos y liderar cambios organizacionales con enfoque en entrega de valor al negocio.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2600 - 3200 Tiempo completo
IT Business Architect
  • CoyanServices
Microservices Soporte técnico Wireframes Cybersecurity

CoyanServices busca un IT Business Architect(tiempo completo, remoto LATAM) para liderar la traducción de objetivos de negocio en arquitectura tecnológica y el diseño de soluciones digitales integradas, seguras y escalables. El rol actúa como puente entre negocio y TI, definiendo y gobernando arquitecturas empresariales y mapas de procesos (BPM), integraciones SAP / APIs / microservicios, y soluciones cloud (AWS); además, impulsa DevOps y prácticas ágiles para asegurar valor, calidad, desempeño y alineamiento con la estrategia digital. Deberás evaluar tecnologías, coordinar con stakeholders, documentar y mantener el roadmap de aplicaciones, y supervisar ciclo de vida, pruebas (unitarias, integrales, UAT, performance) y cumplimiento de políticas y estándares.

Apply at getonbrd.com without intermediaries.

Objetivos del rol:

  • Conectar la estrategia de negocio con la arquitectura tecnológica, definiendo soluciones digitales integradas, seguras y escalables que soporten los procesos clave de la compañía.
  • Traducir los requerimientos funcionales y objetivos de negocio en diseños de arquitectura aplicativa y de infraestructura.
  • Liderar el diseño, coordinación y validación de soluciones tecnológicas asegurando valor, calidad, desempeño y alineamiento con la estrategia digital.
  • Actuar como puente entre negocio y tecnología, integrando equipos multidisciplinarios (negocio, IT, desarrollo, seguridad y operaciones)

Responsabilidades:

Relación con Stakeholders

  • Promover la propuesta de valor de la estrategia de TI ante los stakeholders de negocio.
  • Participar activamente en reuniones, planes y estrategias del proceso asignado.
  • Identificar y gestionar conflictos, asegurando la alineación entre autonomía y objetivos del negocio.

Análisis y Estrategia Tecnológica

  • Investigar y analizar soluciones de tecnología del mercado, identificando tendencias y proveedores relevantes.
  • Evaluar y proponer tecnologías emergentes que optimicen los procesos empresariales.
  • Establecer alianzas estratégicas con proveedores locales, regionales e internacionales.

Diseño y Presentación de Soluciones

  • Definir junto a arquitectos técnicos y de software los atributos de calidad, diseño aplicativo e infraestructura.
  • Analizar requerimientos, problemas y oportunidades para proponer soluciones de valor.
  • Negociar beneficios, costos y compromisos con los sponsors y equipos de operación.

Control y Gobierno de Soluciones

  • Asegurar la integridad técnica y funcional de las soluciones en desarrollo e implementadas.
  • Supervisar el cumplimiento de políticas, metodologías y buenas prácticas.
  • Gestionar el ciclo de vida de las aplicaciones, incluyendo deuda técnica y obsolescencia.
  • Coordinar planes de prueba técnicos, funcionales y de seguridad (unitarias, integrales, UAT, performance).

Prototipado y Entrega de Soluciones

  • Liderar la construcción de prototipos funcionales, validando iterativamente con el cliente.
  • Integrar y mantener el gobierno de activos de arquitectura (negocio, datos, aplicaciones, tecnología).
  • Coordinar la entrega y soporte de las soluciones, colaborando con equipos de proyectos y operaciones.

Documentación y Mejora Continua

  • Documentar mapas de aplicaciones, datos e integraciones de los sistemas a su cargo.
  • Mantener actualizada la arquitectura y proponer mejoras a estándares y lineamientos.
  • Definir y mantener el roadmap de aplicaciones alineado a la estrategia corporativa.

Requisitos Técnicos:

  • Experiencia en arquitectura de soluciones y procesos digitales (mínimo 5 años).
  • Conocimientos sólidos en BPM, arquitectura empresarial, integración de sistemas, APIs y microservicios.
  • Experiencia en plataformas cloud (AWS) y entornos híbridos.
  • Conocimiento en metodologías Agile / Scrum y prácticas DevOps.
  • Capacidad para liderar iniciativas de transformación digital y gestión de cambio.
  • Deseable certificación TOGAF u otras en arquitectura de TI.
  • Experiencia en gestión de ciclo de vida de aplicaciones y herramientas de documentación (Confluence, Jira, Visio, ArchiMate).

Habilidades blandas:

  • Comunicación efectiva con equipos técnicos y ejecutivos.
  • Liderazgo colaborativo y enfoque en resolución de conflictos.
  • Pensamiento estratégico y visión de negocio.
  • Capacidad analítica y orientación a resultados.
  • Autonomía, organización y compromiso con la calidad de las soluciones.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 2800 Tiempo completo
Project Manager – Desarrollo
  • TCIT
  • Santiago (Hybrid)
Agile DevOps Project Manager Scrum

En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de experiencia. Trabajamos en proyectos de alto impacto para clientes en diversos sectores, desde sistemas de gestión agrícola y plataformas de remates en línea hasta soluciones para tribunales judiciales y monitoreo en minería. Colaboramos con socios tecnológicos en Canadá y ofrecemos un entorno ágil, innovador y orientado a resultados. Buscamos un Project Manager que lidere iniciativas de desarrollo de software, gestione expectativas de stakeholders y contribuya a entregar soluciones de calidad que transformen digitalmente a nuestros clientes.

El candidato se integrará a nuestro equipo multidisciplinario, trabajando en proyectos desafiantes que requieren coordinación entre áreas de negocio, desarrollo y QA, con foco en soluciones Cloud y mejoras continuas.

Find this vacancy on Get on Board.

Funciones clave del puesto

  • Definir y gestionar el alcance, cronograma, costos y riesgos de proyectos de desarrollo de software en entornos Cloud.
  • Colaborar con lideres técnicos y equipos de desarrollo para desglosar requerimientos en historias y tareas accionables.
  • Planificar sprints, realizar seguimiento de progreso, gestionar dependencias y priorización de backlog.
  • Garantizar la calidad de entregables mediante validaciones, pruebas y aceptación por parte del cliente.
  • Comunicar avances, riesgos y decisiones a stakeholders ejecutivos y clientes, asegurando transparencia y alineamiento.
  • Identificar mejoras de procesos, herramientas y prácticas de desarrollo para aumentar eficiencia y confiabilidad.
  • Coordinar comunicaciones entre equipos internos y externos, asegurando colaboración efectiva y cumplimiento de SLAs.
  • Apoyar la gestión de cambios y la gestión de la configuración en proyectos complejos.
  • Promover prácticas ágiles, asegurando un ambiente de trabajo colaborativo y orientado a resultados.

Perfil y experiencia deseada

Buscamos un Project Manager con experiencia demostrable gestionando proyectos de desarrollo de software, preferentemente en entornos ágiles y Cloud. Debe poseer habilidades de liderazgo, comunicación eficaz y capacidad para negociar con clientes y equipos técnicos. Se valorarán antecedentes en integración de sistemas, plataformas SaaS o soluciones de transformación digital. Además, se espera una comprensión sólida de metodologías ágiles (Scrum/Kanban), gestión de riesgos y seguimiento de KPIs de proyecto, así como experiencia en coordinación de equipos multidisciplinarios y gestión de proveedores.

Requisitos mínimos: experiencia probada gestionando proyectos de desarrollo de software, conocimiento de herramientas de gestión de proyectos (Jira), habilidades de negociación y resolución de conflictos, excelente gestión del tiempo y orientación a resultados. Deseable experiencia en desarrollo de software y/o devops, y capacidad para entender aspectos técnicos para comunicarse efectivamente con equipos técnicos y clientes.

Competencias y experiencia adicional

Se valorará experiencia previa en desarrollo de software, conocimientos en tecnologías Cloud, prácticas de CI/CD y plataformas de nube (AWS/Azure/Google Cloud). Habilidades de liderazgo situacional, pensamiento crítico, orientación a la innovación y capacidad para trabajar con diferentes culturas y zonas horarias. Certificaciones en gestión de proyectos (PMP/PMI-ACP) o metodologías ágiles serán un plus. Se aprecia empatía, proactividad y enfoque al cliente en un entorno colaborativo.

Beneficios y cultura

En TCIT, garantizamos un ambiente laboral enriquecedor con:

  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉

Únete a la revolución digital de TCIT y forma parte de nuestra comunidad apasionada.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $1,000 Tiempo completo
Cloud Business Operations Associate
  • MAS Analytics
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services

En MAS Analytics somos una consultora líder en Data, Analytics e Inteligencia Artificial, partners estratégicos de Microsoft, AWS, Google y Databricks, con más de 700 proyectos ejecutados en múltiples industrias.

El área de Pre-Sales & Partner Alliance, donde se integrará este rol, es clave para impulsar el crecimiento de la compañía: conectamos innovación tecnológica con impacto de negocio, gestionando consumos cloud, incentivos y programas con los principales vendors.

Aquí tendrás la oportunidad de aprender de primera mano cómo funcionan los ecosistemas de partners más influyentes del mercado, entendiendo procesos reales de incentivos, migraciones y activaciones de proyectos. Formarás parte de un equipo dinámico y cercano, con mentoría constante y exposición a tecnologías de vanguardia (Fabric, Databricks, Copilot, Amazon Q, Vertex, etc), construyendo tu carrera en el corazón de la industria tecnológica.

Job opportunity on getonbrd.com.

Responsabilidades principales

En este rol te sumarás al área de Pre-Sales & Partner Alliance, el equipo que conecta a MAS Analytics con los ecosistemas cloud y tecnológicos más influyentes (Microsoft, AWS, Google y Databricks) y asegura que las iniciativas operativas se traduzcan en crecimiento y beneficios tangibles para la empresa y nuestros clientes.
Tus responsabilidades incluirán:

  • Gestionar procesos clave en portales de partners (Microsoft Partner Center, AWS Partner Central, Google Cloud, Databricks), incluyendo carga y seguimiento de claims, incentivos y oportunidades.
  • Ejecutar y dar seguimiento a programas estratégicos como CAF, Deployments, Solution Assessments y otros fondos, asegurando cumplimiento de plazos y requisitos.
  • Desarrollar demos técnicas y pruebas de concepto con herramientas innovadoras como Azure Advisor, Microsoft Fabric, Databricks Lakehouse, Amazon Q, Vertex AI y SageMaker, colaborando en presentaciones y pilotos para clientes.
  • Realizar investigaciones estratégicas sobre nuevas tecnologías, metodologías e industrias, generando insumos que fortalezcan la propuesta de valor de MAS.
  • Este cargo es ideal si buscas un lugar donde aprender de primera mano cómo funcionan los programas y ecosistemas cloud globales, mientras adquieres experiencia práctica con tecnologías de vanguardia y construyes una base sólida para tu desarrollo profesional en el mundo Cloud & Data.

Perfil buscado

Buscamos personas con formación en Ingeniería Civil, Ejecución en Informática, Sistemas o carreras afines, que quieran proyectar su carrera en el mundo Cloud & Data.

Es fundamental que cuentes con:

  • Conocimientos básicos en Cloud Computing, especialmente en Microsoft Azure y AWS.
  • Experiencia académica, práctica o laboral usando scripting (PowerShell, Python o SQL) para desarrollar demos, conectar datos o probar configuraciones en entornos cloud.
  • Organización y atención al detalle, con disciplina para dar seguimiento a procesos y cumplir plazos.
  • Curiosidad y mentalidad de aprendizaje continuo, con motivación para explorar nuevas herramientas como Fabric, Databricks, Copilot, Vertex o SageMaker.
  • Capacidad de comunicación clara y trabajo en equipo, integrándote a un entorno dinámico y colaborativo.

Buscamos personas curiosas, motivadas y con la capacidad de aprender rápido, que ya tengan las bases necesarias para dar un salto acelerado hacia el mundo cloud y convertirse en referentes en el mediano plazo.

Habilidades y experiencias deseables

Conocimientos en plataformas de datos y analítica como Microsoft Fabric, Power BI, Databricks Lakehouse, Vertex AI o Amazon Q.

Experiencia en demos técnicas o pruebas de concepto, ya sea en el ámbito académico o laboral.

Habilidades para investigar tendencias tecnológicas, nuevas herramientas o casos de uso en distintas industrias, y transformarlas en aprendizajes prácticos para el equipo.

Familiaridad con portales de partners (Microsoft, AWS, Google, Databricks) será una ventaja.

¿Qué ofrecemos?

  • Ambiente dinámico e innovador, donde se valora la colaboración y las ideas nuevas.
  • Horario flexible, con foco en el balance vida–trabajo.
  • Financiamiento de cursos, certificaciones y capacitaciones para impulsar tu desarrollo profesional.
  • Viernes con medio día libre, para que disfrutes más tu fin de semana.
  • Celebraciones de cumpleaños y actividades recreativas que fortalecen la integración del equipo.

Y sobre todo, la posibilidad de crecer en un entorno que combina tecnología de vanguardia, aprendizaje continuo e innovación real.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided MAS Analytics provides a computer for your work.
Beverages and snacks MAS Analytics offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
AI Architect
  • Factor IT
  • Santiago (Hybrid)
Java Scala Virtualization Amazon Web Services
FactorIT es una empresa líder en tecnología con presencia regional y foco en Data & Analytics, Transformación Digital e IA. Buscamos al menos un AI Architect senior para liderar la arquitectura y gobernanza del ecosistema de IA (tradicional y generativa), con énfasis en agentes/multiagentes, seguridad, escalabilidad y ROI. El rol forma parte de un esfuerzo de estandarización de la plataforma de IA y la entrega end-to-end de soluciones en producción, alineadas a las metas estratégicas de la compañía. El candidato deberá diseñar, orquestar y gobernar arquitecturas de IA, establecer estándares de plataforma, y asegurar el éxito de iniciativas desde PoC hasta producción, con métricas claras y gobernanza ejecutiva.

Apply directly from Get on Board.

Funciones

  • Arquitectura & diseño: desarrollar blueprints de datos, features, modelos, inferencia, MLOps/LLMOps, seguridad y observabilidad.
  • Agentes/Multiagentes: definir roles, herramientas, memoria, planificación y guardrails; coordinar multiagentes (router/coordinador), manejo de estado, retries e idempotencia.
  • Gobernanza & seguridad: versionado, explainability, fairness, auditoría de llamadas a herramientas, cumplimiento (GDPR/LGPD), gestión de secretos.
  • Entrega a producción: liderar PoC → piloto → prod, hardening, readiness operativa, SLO/SLA y runbooks.
  • FinOps: control de costos por interacción/tarea, caching, compresión de prompts y enrutamiento de modelos.
  • Plataforma: evolución del stack (cloud/on‑prem), feature store, vector DB, pipelines y gateways de modelos.
  • Habilitación: patrones reutilizables (RAG, batch, near-real-time, agents), revisión de diseño/código y acompañamiento a squads.

Descripción

  • Se requiere 7–10+ años en data/ML y 3+ en arquitectura o liderazgo técnico, con al menos 2 proyectos de IA en producción (uno con LLM/GenAI).
  • Experiencia demostrable en agentes: implementaciones en producción (≥5k tareas/mes) y al menos 1 sistema multiagente con coordinación y tolerancia a fallos.
  • Conocimientos en Cloud (AWS/Azure/GCP), contenedores (Docker/K8s) y pipelines de datos (Kafka/PubSub, lakehouse como Delta/Iceberg, dbt, Spark).
  • Experiencia en MLOps/LLMOps (MLflow, Airflow/Prefect, Vertex/SageMaker/Azure ML), bases de datos vectoriales, herramientas de seguridad (IAM, Vault/KMS) y observabilidad (Prometheus/Grafana, OpenTelemetry).
  • Habilidades blandas: influencia transversal, comunicación ejecutiva y pensamiento orientado a producto.
  • KPIs técnicos: disponibilidad de inferencia ≥ 99,5%, latencia conforme a SLA, coste por interacción optimizado, tasa de éxito de tareas y reutilización de patrones.

Deseables

  • Conocimientos en LangGraph, OpenAI Assistants, AutoGen, CrewAI; experiencia con Semantic Kernel y patrones ReAct/planning.
  • Seguridad avanzada, modelado de amenazas y sandboxing (Docker/Firecracker) y políticas de enforcement.
  • Postgrado en IA/Analytics y certificaciones cloud (Architect) o especializadas en ML.

Beneficios

Modelo híbrido/flexible, presupuesto para formación y certificaciones, seguro complementario, días administrativos, equipos y herramientas de trabajo, plan de carrera y proyectos de alto impacto.
Ofrecemos modalidad de trabajo 100% remota o híbrida desde Santiago, Chile, con flexibilidad horaria y equilibrio entre vida personal y profesional.
Te incorporarás a un equipo de alto rendimiento, con tecnologías de última generación y proyectos con impacto regional en el sector financiero y más allá.
Al unirte a FactorIT, participarás en proyectos desafiantes y con visión de transformación tecnológica en la región.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 4100 Tiempo completo
Líder Técnico de IA / MLOps
  • Norun SpA
C C++ Python Linux

Norun SpA es una empresa nacional líder en estudios de transporte y tránsito, enfocada en mejorar la movilidad con tecnología de punta. Nuestra área de I+D está desarrollando una plataforma para gestión de tráfico mediante visión computacional aplicada a video. El proyecto busca entrenar modelos de IA con pipelines de ML Ops, desplegarlos en edges, y desarrollar una plataforma web que entregue los resultados agregados a usuarios finales. El/la Líder Técnico de IA y ML Ops desarrolla y además es el referente técnico del equipo de desarrollo/data science, con responsabilidad sobre arquitectura, rendimiento y escalabilidad.

© getonbrd.com. All rights reserved.

Funciones principales

  • Liderazgo Técnico: Trabajar junto al Data Scientist para alinear experimentación con producción. Guiar a desarrolladores junior en la creación de una plataforma web para usuarios finales compatible con la infraestructura de IA. Garantizar código de alta calidad y buenas prácticas de ingeniería.
  • Arquitectura: Diseñar la arquitectura de sistema de punta a punta desde ingestión de datos hasta despliegue en hardware edge. Seleccionar el stack tecnológico óptimo (edge, librerías de optimización, plataformas cloud).
  • Productización y Optimización de Modelos: Tomar modelos entrenados por el Data Scientist y aplicar técnicas de optimización (cuantización, pruning, destilación). Realizar profiling y benchmarks para asegurar FPS y latencia requeridos en edge. Desarrollar la inferencia de alto rendimiento en Python y/o C++ para dispositivos edge.
  • Infraestructura y Automatización MLOps: Diseñar y construir pipelines CI/CD para entrenamiento, validación y despliegue. Implementar control de versiones de datos (DVC) y de modelos (MLflow). Configurar infraestructura en Cloud/local con Docker y Kubernetes para un entorno de producción escalable.

Descripción detallada

Buscamos un/a Líder Técnico/a de IA con fuerte experiencia en desarrollo de software y entrega de soluciones de IA en producción. El/la candidato/a ideal debe combinar habilidades técnicas profundas (ingeniería de software, optimización de modelos para inferencia en edge, pipelines de MLOps) con capacidad de liderazgo y visión de arquitectura de software. Será responsable de la gestión técnica del proyecto, desde la concepción de la arquitectura hasta la entrega de productos de software que cumplan con los KPIs establecidos.

Requisitos de entorno técnico incluyen Python y/o C++, herramientas de MLOps (ej. MLflow), contenedores Docker, y experiencia con servicios de IA/ML en AWS o GCP. Se valorará experiencia en edge computing, perfiles de hardware (CPU/GPU/VPU) y conocimientos en Linux. La persona deberá liderar técnicamente el equipo, promover buenas prácticas de desarrollo y garantizar la calidad del producto, además de actuar como traductor entre ciencia de datos y desarrollo de aplicaciones.

Deseable

  • Habilidades de liderazgo técnico, capacidad de mentoría, visión de arquitectura de software y propiedad de la infraestructura. Se espera proactividad, autonomía, y facilidad para adaptarse a cambios.
  • Experiencia comprobable de despliegue de modelos de IA para procesamiento de video en infraestructura edge.
  • Experiencia comprobable en ML Ops.
  • Idiomas: inglés técnico para lectura de documentación.

Beneficios y condiciones

  • Se prefiere presencialidad pero existe opción híbrida/remota para candidatos excepcionales.
  • Este cargo cuenta con opción part time, más enfocada en el liderazgo técnico.
  • Ofrecemos un entorno de crecimiento y respeto, con enfoque en desarrollo profesional dentro de una empresa líder en análisis de transporte y movilidad. Únete a un equipo que está transformando la movilidad en Chile y la región con tecnología de vanguardia.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Norun SpA provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
AI Architect Senior
  • Improving South America
JavaScript Java Python Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply directly on the original site at Get on Board.

Funciones del cargo

Estamos en la búsqueda de un AI Architect SR con manejo de inglés para sumarse a un proyecto de la manos con un cliente enfocado en proporcionar a las empresas herramientas y experiencia necesarias para alcanzar el éxito, cumpliendo con:

  • Diseñar y ejecutar soluciones de IA/ML de punta a punta en plataformas cloud (GCP, AWS), incluyendo ingestión de datos, desarrollo de modelos, despliegue y monitoreo.
  • Liderar y guiar equipos de ingeniería multifuncionales, fomentando un entorno colaborativo y de alto rendimiento.
  • Colaborar con stakeholders para recopilar requisitos, definir el alcance del proyecto y alinear las soluciones técnicas con los objetivos del negocio.
  • Supervisar la modernización y migración de sistemas legacy hacia arquitecturas nativas en la nube, aprovechando tecnologías serverless y basadas en contenedores.
  • Diseñar y gestionar pipelines de CI/CD para flujos de trabajo de ML, asegurando despliegues automatizados, robustos y seguros.
  • Evaluar y seleccionar los frameworks, herramientas y tecnologías de IA/ML más adecuados (por ejemplo, TensorFlow, Scikit-learn, Vertex AI, Generative AI).
  • Desarrollar y aplicar buenas prácticas para la gestión de datos, entrenamiento, validación y gobernanza de modelos.
  • Impulsar la innovación explorando e integrando tecnologías y metodologías emergentes en IA/ML.
  • Garantizar el cumplimiento de estándares de privacidad y seguridad de datos, especialmente en industrias reguladas (por ejemplo, salud, finanzas).

Requerimientos del cargo

  • Nivel de Inglés oral y escrito B2/C1 (intermedio /avanzado) Excluyente.
  • Más de 7 años de experiencia en ingeniería de software, con al menos 4 años en arquitectura de soluciones de IA/ML en la nube.
  • Experiencia comprobada liderando equipos de ingeniería y gestionando proyectos complejos.
  • Amplia experiencia en plataformas cloud (GCP, AWS), incluyendo trabajo práctico con servicios como Vertex AI, Lambda, Cloud Functions, BigQuery, DynamoDB, entre otros.
  • Dominio de lenguajes de programación como Python, Java, JavaScript/TypeScript.
  • Sólido conocimiento de frameworks y herramientas de ML: Generative AI, Document AI.
  • Experiencia con contenedores y orquestación (Docker, Kubernetes, Terraform, Helm).
  • Sólida comprensión de procesos y herramientas de CI/CD (GitLab, AWS CodePipeline, Cloud Build).
  • Excelentes habilidades de comunicación, gestión de stakeholders y planificación de proyectos.

Conditions

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1200 - 1600 Tiempo completo
ML Engineer Junior / Plataforma de Visión Computacional
  • Norun SpA
  • Santiago (Hybrid)
C C++ Python Git

Norun SpA es una empresa nacional líder en estudios de transporte y tránsito, enfocada en mejorar la movilidad con tecnología de punta. Nuestra área de I+D está desarrollando una plataforma para gestión de tráfico mediante visión computacional aplicada a video. El proyecto busca entrenar modelos de IA con pipelines de ML Ops, desplegarlos en edges, y desarrollar una plataforma web que permita a usuarios finales obtener valor de los resultados. Esperamos que colabores en varias de estas áreas.

Send CV through getonbrd.com.

Funciones y responsabilidades principales

  • Operacionalización de Modelos: refactorizar código de prototipos para producción, asegurando robustez, rendimiento y código limpio (Clean Code).
  • Implementación de MLOps: configurar y mantener pipelines de entrenamiento y despliegue continuo; comprender flujos y objetivos, con ganas de aprender a orquestarlos.
  • Integración IA-Web: actuar como nexo técnico entre IA y la plataforma web; exponer resultados de modelos mediante APIs, microservicios o bases de datos para consumo desde plataforma web.
  • Optimización para Edge: colaborar en optimizaciones de bajo nivel para ejecutar modelos en dispositivos físicos (cámaras/edge) o en la nube, gestionando memoria y latencia.

Requisitos y perfil técnico

Buscamos una base sólida en IA, y capacidad de convertir investigación en soluciones en el mundo real.

  • Formación: Ingeniería Civil Informática, Eléctrica, Computación o similar.
  • Perfil técnico: más Ingeniero de Software que matemático; comprende modelos y se entusiasma por desplegarlos y optimizarlos.
  • Stack base:Python (manejo avanzado de librerías y desarrollo de software), Docker/Contenedores (fundamental), APIs (FastAPI, Flask) para exponer modelos, Git y trabajo colaborativo.
  • Deseable: experiencia o proyectos con herramientas de MLOps (MLFlow, DVC, Airflow), nociones de Cloud (AWS/GCP) y conocimientos de C++ para optimización.

Requisitos deseables

Experiencia previa en integración de modelos en pipelines de producción, familiaridad con pruebas de rendimiento y métricas de IA, y capacidad para trabajar en un entorno ágil. Se valoran proyectos que demuestren implementación de modelos en edge y/o experiencia en desarrollo de APIs.

Beneficios y cultura

  • Se prefiere presencialidad en Santiago de Chile, pero existe opción híbrida para candidatos excepcionales.
  • Ofrecemos un entorno de crecimiento y respeto, con enfoque en desarrollo profesional dentro de una empresa líder en análisis de transporte y movilidad. Únete a un equipo que está transformando la movilidad en Chile y la región con tecnología de vanguardia.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 3500 Tiempo completo
Senior Machine Learning Engineer – Computer Vision
  • Niuro
Python 3D Git DevOps
Niuro connects projects with elite tech teams, delivering autonomous, high-performance engineering groups to top U.S. companies. In this engagement, you will lead the design, implementation, and operation of end-to-end ML solutions for image and video analytics within a mining-industry context. The project emphasizes scalable ML pipelines, robust model quality, and strong MLOps practices to ensure reliable production deployment. You will collaborate closely with cross-functional teams to produce impactful ML products and maintain production-grade delivery standards.

Apply exclusively at getonbrd.com.

Key Responsibilities

  • Design and implement robust Computer Vision architectures for training and inference, building end-to-end data pipelines for image and video data.
  • Develop production-grade Python code with testing, logging, documentation, and engineering best practices.
  • Own and advance MLOps practices: CI/CD pipelines, dataset and model versioning, environment management, and monitoring for models and data in production.
  • Optimize models for latency, throughput, and hardware efficiency (GPU/CPU) while maintaining high accuracy through systematic experimentation.
  • Deploy and operate models in production—exposed APIs, batch processing, streaming, or edge deployments.
  • Collaborate with product, data, and business stakeholders to translate requirements into scalable ML solutions and drive continuous improvement.

Requirements

✅ Bachelor’s degree in Engineering, Computer Science, Mathematics, or related field.
✅ 5+ years of experience in Machine Learning / Deep Learning with a strong focus on Computer Vision (object detection, segmentation, tracking, pose estimation, 3D/stereo vision, or video understanding).
✅ Expert Python developer with hands-on experience in at least one DL framework (PyTorch, TensorFlow/Keras, JAX, etc.).
✅ Practical experience with CV libraries such as OpenCV, scikit-image, or similar tools.
✅ Proficient in Docker, Git, and CI/CD or MLOps platforms (e.g., Azure DevOps, GitLab CI, GitHub Actions, MLflow, Kubeflow).
✅ Proven track record deploying and operating ML models in production environments.
✅ Fluent in Spanish (required).

Nice-to-Have

🔸 Experience applying ML in industrial, mining, or edge environments.
🔸 Familiarity with cloud platforms (AWS, Azure, GCP).
🔸 Strong background in model monitoring, data quality, or ML observability.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply directly at getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $6000 - 9000 Tiempo completo
Principal AI Engineer
  • Common Forge Ventures
JavaScript Python Node.js Go

Common Forge is building an AI-enabled practice that delivers rapid, production-ready AI workflows for mid-market clients. The Principal AI Engineer will lead technical direction across multiple client engagements, translating business goals into scalable AI architectures and hands-on solutions. You will drive discovery with executive stakeholders, architect end-to-end AI-enabled systems, and shepherd the execution from concept to production. This role combines strategic leadership with hands-on development and team mentorship to expand our AI-enabled offerings and accelerate client value realization.

This job offer is available on Get on Board.

Key Responsibilities

  • Translate business requirements into comprehensive technical designs, data flows, and scalable system architectures for AI-driven applications leveraging LLMs, APIs, and customer data.
  • Architect and build proof-of-concept and production-ready systems using Python, Node.js, React, and TypeScript; orchestrate automation via platforms like n8n, LangChain, and Clay.
  • Lead full-stack development and integration efforts, ensuring robust CI/CD, containerization, and secure deployment practices across distributed teams.
  • Own delivery from prototype to production, maintaining high standards for speed, reliability, and security, while guiding engineering teams and reviewing code.
  • Establish internal technical frameworks, reusable patterns, and best practices for AI workflows; mentor engineers and contribute to internal tools and documentation.
  • Engage with clients directly, including executive stakeholders, to align solutions with business goals and measurable outcomes.

Requirements and Experience

We’re seeking a technically exceptional leader with 10+ years of software or data engineering experience, including recent work in AI or automation. You should demonstrate a strong ability to set architectural direction and scale delivery across multiple clients or products. Deep knowledge of large language models, AI orchestration tools (n8n, LangChain, Clay), and experience integrating cloud services (AWS, GCP, Azure) with CRM/ERP or internal data systems is essential. Proficiency in at least one backend stack (Python, Node.js, or Go), experience with vector databases and RAG systems, and solid DevOps practices (CI/CD, containers) are required. Excellent client-facing and communication skills are a must, with a track record of delivering in fast-paced, cross-time-zone environments. Fluency in English and the ability to present to executives and non-technical stakeholders are important.

Desirable Skills & Experience

Prior experience leading nearshore teams and collaborating across time zones. Demonstrated ability to build and iterate AI-enabled platforms, develop reusable assets, and shape internal playbooks. Entrepreneurial mindset with a passion for driving business value through technology and a strong customer-centric approach. Experience in mid-market consulting or digital delivery is a plus.

Benefits & How to Apply

At Common Forge, you will enjoy a remote working environment with flexible hours, allowing you to balance personal and professional commitments effectively. We prioritize opportunities for professional development and growth, fostering an inclusive and collaborative team culture. Join us to access the latest technologies and tools as we work towards impactful solutions together! 🚀

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $5000 - 6000 Tiempo completo
VP of Artificial Intelligence
  • Niuro
Python Virtualization Amazon Web Services Artificial Intelligence
Niuro connects ambitious projects with elite tech teams and collaborates with leading U.S. companies. As our VP of AI, you will shape and execute the company’s AI strategy across multiple high-impact projects, overseeing the end-to-end lifecycle from ideation and research to production deployment and continuous optimization. You will partner with the CEO and cross-functional leaders to ensure AI initiatives align with business priorities, drive measurable value, and scale across diverse domains (data engineering, MLOps, cloud infrastructure, and productization). You will also lead the development of scalable, production-grade AI systems, foster a culture of technical excellence, and advocate for responsible AI practices within a globally distributed, remote-first organization.

Job source: getonbrd.com.

Key Responsibilities

  • AI Strategy & Vision: Define and execute the organization's AI roadmap in close collaboration with the CEO, ensuring alignment with business priorities and market trends.
  • Technical Leadership: Lead by example—review architectures, guide model deployment strategies, and make high-impact decisions on data pipelines, LLM integration, and cloud scalability.
  • Architecture & Infrastructure: Oversee design and modernization of systems using AWS, Terraform, Kubernetes, FastAPI, Windows Server/IIS, and monitoring stacks (CloudWatch, Grafana).
  • Innovation & Productization: Drive the full lifecycle of AI initiatives—from research and prototyping to production deployment and ongoing optimization.
  • Cross-functional Collaboration: Partner with engineering, product, and data teams to ensure AI-driven initiatives deliver measurable value.
  • Executive Communication: Translate complex technical topics into actionable insights for leadership, investors, and clients.

Requirements

• 10+ years of experience in software engineering, AI/ML, or data architecture, with 5+ years leading technical or cross-functional teams. • Deep expertise in AI/ML engineering—proven ability to design, train, and deploy large-scale models (LLMs or ML pipelines) in production environments. • Expert-level skills in Python, cloud computing (AWS), and distributed systems. • Strong background in systems design, architecture modernization, and data engineering. • Hands-on experience implementing AI solutions end-to-end: data ingestion, model deployment, API integration, and monitoring. • Executive-level communication skills and ability to influence both technical and non-technical stakeholders. • Fluent in English (Spanish or Portuguese is a plus).

Nice to Have

• Experience in fintech, govtech, or enterprise SaaS environments. • Familiarity with AWS AI services, MLOps, and container orchestration (Kubernetes, ECS). • Exposure to LLM-based automation and agentic or retrieval-augmented systems (RAG). • Background in data governance, compliance, or model security.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3500 - 4500 Tiempo completo
ML Engineer
  • Wird
Python Virtualization Amazon Web Services Continuous Deployment

Wird es una empresa en crecimiento que se especializa en mejorar la comunicación entre las empresas y sus clientes mediante soluciones basadas en Inteligencia Artificial. Su misión es transformar los procesos de ventas para aumentar la cantidad de cierres, reducir las tasas de fuga y mejorar la satisfacción del cliente. Además, se enfocan en rentabilizar las conversaciones, incrementando la eficiencia y la felicidad de los equipos de trabajo. La empresa está orientada a crear valor social en cada interacción y utiliza tecnologías de punta en IA, promoviendo un ambiente laboral agradable y colaborativo donde las contribuciones individuales son visibles y valoradas.

© Get on Board. All rights reserved.

Funciones del cargo

Como ML Engineer, tu propósito será diseñar, desarrollar y optimizar modelos de aprendizaje automático escalables, asegurando su precisión y eficiencia en producción. Implementarás y mantendrás pipelines de datos y métricas de monitoreo para garantizar un desempeño confiable.

Tus responsabilidades incluirán:

  • Diseñar, implementar y mantener pipelines de entrenamiento y fine-tuning para LLMs, incluyendo gestión de datasets, versionado y evaluación de modelos.
  • Optimizar la inferencia y el despliegue de modelos (batching, quantization, pruning, distillation) para lograr baja latencia y alto rendimiento en entornos productivos.
  • Desarrollar y mantener infraestructura MLOps especializada para LLMs, incluyendo automatización de retraining, monitoreo y control de calidad.
  • Integrar modelos de lenguaje de código abierto y APIs externas (OpenAI, Anthropic, Mistral, Llama, Hugging Face, etc.) dentro de los productos internos.
  • Implementar y escalar sistemas de Retrieval-Augmented Generation (RAG), manejo de embeddings y almacenamiento vectorial.
  • Crear herramientas para evaluar la calidad y comportamiento de los modelos (hallucinations, factuality, response consistency).
  • Colaborar con equipos de NLP y backend para integrar modelos de lenguaje en sistemas de producción de manera segura y eficiente.
  • Investigar, prototipar y aplicar los últimos avances en optimización de LLMs y modelos fundacionales, manteniendo a Wird a la vanguardia tecnológica.

Requerimientos del cargo

Buscamos un profesional con experiencia sólida en el ciclo de vida completo de los modelos de Machine Learning: desde el diseño hasta la implementación y monitoreo en entornos reales.

Se valorará especialmente:

  • Experiencia comprobable en entrenamiento, fine-tuning y despliegue de LLMs
  • Dominio de Python y frameworks como PyTorch, Transformers (Hugging Face) u otros
  • Conocimiento práctico en MLOps para LLMs: orquestación de pipelines (Airflow, Prefect, Kubeflow), versionado de datos/modelos (DVC, MLflow) y CI/CD.
  • Experiencia con infraestructura en la nube (AWS, GCP o Azure) y contenedores
  • Conocimientos en vector databases y servicios RAG, aplicados a la recuperación semántica y contextualización de respuestas.
  • Habilidad para analizar métricas de rendimiento y costo computacional, y para ajustar modelos según requerimientos de negocio.
  • Experiencia con optimización de inferencia (GPU/TPU utilization, quantization, mixed precision, caching).

Opcionales

Valoramos especialmente perfiles con una mentalidad analítica avanzada y entusiasmo por resolver problemas técnicos complejos.

  • Experiencia con LLM en plataformas como AI Foundry o Bedrock.
  • Capacidad para trabajar de forma colaborativa y efectiva en equipos multidisciplinarios, tanto técnicos como no técnicos.
  • Pasión por el aprendizaje continuo, la proactividad y la habilidad para tomar decisiones autónomas en contextos cambiantes.

Condiciones

  • Dias extra se vacaciones
  • Seguro de salud
  • Día libre de cumpleaños
  • Capacitaciones

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3500 - 4500 Tiempo completo
NLP Engineer
  • Wird
Python Virtualization Amazon Web Services Docker
Wird es una empresa en crecimiento que se especializa en mejorar la comunicación entre las empresas y sus clientes mediante soluciones basadas en Inteligencia Artificial. Su misión es transformar los procesos de ventas para aumentar la cantidad de cierres, reducir las tasas de fuga y mejorar la satisfacción del cliente. Además, se enfocan en rentabilizar las conversaciones, incrementando la eficiencia y la felicidad de los equipos de trabajo. La empresa está orientada a crear valor social en cada interacción y utiliza tecnologías de punta en IA, promoviendo un ambiente laboral agradable y colaborativo donde las contribuciones individuales son visibles y valoradas.

This offer is exclusive to getonbrd.com.

Funciones del cargo

Como NLP Engineer, tu misión principal será diseñar, desarrollar e implementar soluciones de procesamiento del lenguaje natural (NLP) que resuelvan problemas específicos del negocio, mejorando la eficiencia de los sistemas basados en texto.
Tus responsabilidades incluirán:
  • Diseñar y desarrollar pipelines de NLP end-to-end: limpieza, tokenización, vectorización, modelado y despliegue.
  • Implementar y adaptar modelos preentrenados (BERT, RoBERTa, GPT, Llama, Mistral), aplicando fine-tuning, prompt engineering y evaluación de desempeño.
  • Experimentar con técnicas de optimización (quantization, pruning, distillation) para mejorar eficiencia y latencia.
  • Desarrollar e integrar APIs y servicios que conecten los modelos NLP con los sistemas internos o productos de la empresa.
  • Analizar métricas de rendimiento (accuracy, F1, perplexity, latency) y realizar iteraciones basadas en evidencia.
  • Investigar y aplicar el estado del arte en aprendizaje profundo, embeddings semánticos, RAG (Retrieval-Augmented Generation) y agentes conversacionales.
  • Colaborar con equipos de Revenue y Produc

Requerimientos del cargo

Buscamos un profesional con experiencia comprobable en el diseño, desarrollo y optimización de soluciones de NLP.
  • Experiencia comprobable en procesamiento de lenguaje natural y desarrollo de modelos basados en Deep Learning.
  • Dominio de Python y bibliotecas como Hugging Face Transformers, PyTorch o TensorFlow.
  • Conocimientos en entrenamiento, fine-tuning y evaluación de modelos de lenguaje.
  • Experiencia con preprocesamiento de texto, embeddings, clasificación de texto, análisis de sentimientos o chatbots.
  • Familiaridad con MLOps, despliegue de modelos en entornos productivos (Docker, FastAPI, AWS/GCP/Azure).
  • Buen entendimiento de algoritmos de optimización, métricas de desempeño y manejo de datos desbalanceados.

Opcionales

Valoramos especialmente perfiles con una mentalidad analítica avanzada y entusiasmo por resolver problemas técnicos complejos.
  • Experiencia con LLM en plataformas como AI Foundry o Bedrock.
  • Capacidad para trabajar de forma colaborativa y efectiva en equipos multidisciplinarios, tanto técnicos como no técnicos.
  • Pasión por el aprendizaje continuo, la proactividad y la habilidad para tomar decisiones autónomas en contextos cambiantes.

Condiciones

  • Dias extra se vacaciones
  • Seguro de salud
  • Día libre de cumpleaños
  • Capacitaciones

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $4500 - 7500 Tiempo completo
Head of Artificial Intelligence
  • Niuro
Python Virtualization Amazon Web Services Artificial Intelligence
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. The Head of AI will join Niuro’s remote-first environment to define and drive the AI strategy across the organization, partnering with the CEO to align technology with business goals. You will lead the design and deployment of scalable, secure AI platforms, modernizing legacy systems while delivering transformative AI capabilities for our clients. This role sits at the intersection of strategic leadership and hands-on technical execution, guiding cross-functional teams and ensuring that AI initiatives translate into measurable business outcomes. You will also help nurture a global, high-performance workforce through mentorship, training, and strong governance around AI programs.

Apply to this job directly at getonbrd.com.

Key Responsibilities

  • Vision & Strategy: Partner with the CEO to define and execute Niuro's AI roadmap, ensuring alignment with business objectives and market opportunities. Translate strategy into actionable programs with clear milestones and metrics.
  • Architecture Leadership: Serve as the chief AI architect, designing scalable, secure AI-driven systems. Lead the transition from legacy platforms to modern infrastructure while ensuring reliability and compliance.
  • Innovation & Delivery: Drive rapid development of new AI-powered features and services, balancing speed with maintainability and long-term support.
  • Technology Oversight: Guide the use of cloud-based technologies (AWS, Terraform, Kubernetes, Python, Windows Server/IIS, FastAPI). Implement monitoring (CloudWatch, Grafana) and data pipelines (AWS Glue/Lambda) to ensure scalability and observability.
  • People & Stakeholders: Communicate complex technical concepts clearly to executives, clients, and internal teams. Mentor senior engineers and foster a culture of scientific rigor and responsible AI.

Required Skills & Experience

8+ years in software engineering, data science, or AI with at least 3+ years in leadership. Proven track record deploying AI/ML solutions at scale in production environments. Strong systems design background and experience with cloud platforms (AWS preferred). Advanced Python programming skills; experience with modern AI frameworks and LLMs. Demonstrated success modernizing legacy platforms and delivering scalable, maintainable AI solutions. Exceptional executive-level communication abilities and a talent for translating technical concepts into business value. Fluent in English; Spanish or Portuguese is a plus.

Desirable Skills & Experience

Experience in regulated industries (fintech, govtech) and products with active users and customer support operations. Familiarity with AWS AI services, container orchestration (Kubernetes/ECS), and MLOps. Exposure to LLM-based automation and data engineering workflows. A proactive, entrepreneurial mindset with a bias for action and strong collaboration skills.

Benefits & Perks

We offer the chance to participate in impactful, technically rigorous industrial data projects that drive innovation and professional growth. Niuro supports a 100% remote work model, enabling global flexibility. We invest in career development through ongoing training and leadership opportunities, ensuring continuous growth. Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment. Joining Niuro means being part of a global community with strong administrative support that enables you to focus on impactful work.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $100 Tiempo completo
Unpaid Back-end Programmer Intern Python and AI
  • ReadyChatAI LLC
Python Git REST API JSON

Company: ReadyChatAI LLC — Automating social media with ChatGPT and LLM.

About the project: This internship sits at the intersection of backend development, AI tooling, and data-driven product iteration. You will contribute to building scalable Python-based services that power AI-enabled features for social media automation, analytics, and internal tooling. You will partner with data analysts and product teams to ship reliable backend components that handle data ingestion, processing, and integration with AI models.

This job is published by getonbrd.com.

Job functions

  • Develop and maintain backend services using Django and Python.
  • Integrate and experiment with AI frameworks such as LangChain to support chatbot and automation workflows.
  • Work with LLM APIs (OpenAI, Anthropic, etc.) to design and implement AI-driven features.
  • Collaborate with the frontend team to design APIs and support end-to-end functionality.
  • Participate in code reviews, testing, and debugging to improve code quality.
  • Research and prototype new AI capabilities for real-world applications.

Qualifications and requirements

  • Strong foundation in Python programming.
  • Basic experience with Django (models, views, serializers, REST API).
  • Understanding of RESTful APIs and JSON.
  • Curiosity and willingness to learn AI frameworks like LangChain.
  • Familiarity with Git and version control workflows.
  • Clear written and verbal communication in English.

Desirable skills

  • Prior experience with LangChain, LLM APIs (OpenAI, Hugging Face, etc.), or chatbot frameworks.
  • Knowledge of databases (PostgreSQL, MySQL) and query optimization.
  • Familiarity with cloud platforms (AWS, GCP, or Azure).
  • Interest in AI/ML research, prompt engineering, or vector databases.

Benefits

Real-world experience using Power BI in a high-growth startup. Mentorship and guidance on data analysis and storytelling. Visibility into how analytics supports product development, marketing, and operations. The opportunity to make a measurable impact with your work.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3500 Tiempo completo
Senior ML Engineer (Software Development Background)
  • Niuro
JavaScript Python Front-end Virtualization
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Exclusive offer from getonbrd.com.

Role overview

We’re looking for a versatile engineer who can move across data, backend, and machine learning projects. The role combines strong software engineering foundations with applied ML expertise, ensuring scalable, reliable, and production-ready solutions.

What you’ll do

  • Contribute to end-to-end ML projects, bridging data engineering, backend development, and model deployment.
  • Design, implement, test, and maintain scalable data pipelines and production-ready ML systems.
  • Collaborate with cross-functional teams to translate business requirements into robust technical solutions.
  • Apply best practices in software engineering (testing, CI/CD, version control) and operate within AWS-powered environments.
  • Work with data platforms such as Snowflake and Databricks; handle data ingestion, cleaning, and processing.
  • Experiment with time-series modeling, generative models, or recommendation systems as applicable to projects.
  • Leverage JavaScript knowledge as a plus when interfacing with front-end or data visualization components.

Desired background

Proven experience in Python and AWS, strong software engineering mindset, solid understanding of data engineering pipelines, and hands-on ML experience in at least one of time series, generative modeling, or recommendation systems. Familiarity with Snowflake and Databricks is a plus. Strong communication skills and ability to work in an international, remote-first environment.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 3000 Tiempo completo
AI Engineer
  • Niuro
Python Virtualization Amazon Web Services Docker
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. We focus on innovative and challenging projects that foster continuous professional growth and technological excellence.

Apply directly through getonbrd.com.

About the Role:

We’re looking for an AI Engineer to help us develop intelligent agent systems that automate the processing of structured and semi-structured documents. Your work will improve user experience and internal workflows, focusing on automation, accuracy, and scalability.

Requirements:

  • Fluent English (written and spoken)
  • Strong programming skills in Python
  • Experience working with large language models (LLMs) such as OpenAI API or similar
  • Ability to design and build APIs using FastAPI
  • Familiarity with AWS or other cloud platforms

Nice-to-have:

  • Experience with Docker, Gunicorn, and Amazon ECS
  • Knowledge of Amazon Bedrock, Amazon Textract, BAML, and Pydantic AI
  • Familiarity with Aestiva HTML/OS and Streamlit for prototyping
  • Experience with frontend testing using Playwright and backend testing using pytest
  • Experience with monitoring tools like CloudWatch, Prometheus, and Grafana

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3500 Tiempo completo
AI Engineer Especialista en Llms y Transformers
  • Devups
Python Git Virtualization Amazon Web Services
En Devups, somos una empresa especializada en servicios de staff augmentation que permite a las compañías incorporar rápidamente desarrolladores y especialistas tecnológicos sin la complejidad asociada al reclutamiento tradicional. Nuestro enfoque se basa en proporcionar talento altamente calificado de forma flexible y escalable para potenciar el crecimiento y éxito de nuestros clientes. Actualmente, estamos trabajando con clientes en el desarrollo e integración de soluciones basadas en inteligencia artificial avanzada, particularmente en el área de modelos de lenguaje grandes (LLMs) y arquitecturas Transformer. Estos proyectos buscan innovar en el procesamiento y generación de lenguaje natural, optimizar pipelines de recuperación aumentada de generación (RAG) y desplegar sistemas inteligentes que impacten directamente en productos y servicios de última generación.

Apply to this job through Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines eficientes para modelos de lenguaje, especialmente para tareas de fine-tuning y adaptación usando frameworks como Hugging Face.
  • Implementar y optimizar técnicas de RAG (Retrieval-Augmented Generation) para mejorar la integración de datos externos y contexto en los modelos.
  • Gestionar bases de datos vectoriales y embeddings con herramientas como FAISS o Pinecone para facilitar búsquedas semánticas efectivas.
  • Desarrollar APIs robustas para exponer modelos y servicios mediante frameworks Python como FastAPI o Flask.
  • Configurar y desplegar aplicaciones en entornos cloud escalables, utilizando principalmente AWS o Google Cloud Platform.
  • Colaborar en la integración continua y control de versiones mediante Git y Docker para garantizar la reproducibilidad y portabilidad del software.
  • Participar en la evaluación de modelos, experimentando con entrenamientos distribuidos y herramientas avanzadas como DeepSpeed o BitsAndBytes para mejorar la eficiencia y precisión.
  • Trabajar en equipo coordinadamente, aportando feedback, documentando buenas prácticas y manteniendo altos estándares de calidad en el desarrollo.

Perfil y requisitos técnicos

Buscamos ingenieros en inteligencia artificial con experiencia demostrable en el trabajo con modelos de lenguaje grandes (LLMs) y arquitecturas Transformer, que tengan pasión por la innovación y la implementación de soluciones escalables y bajo producción. El candidato ideal deberá contar con:
  • Experiencia práctica utilizando librerías y frameworks de última generación como Hugging Face, realizando fine-tuning con técnicas avanzadas como LoRA, QLoRA o PEFT.
  • Dominio de conceptos y herramientas para Retrieval-Augmented Generation (RAG), junto con manejo de embeddings y bases de datos vectoriales (FAISS, Pinecone).
  • Competencia avanzada en Python y desarrollo de APIs con FastAPI o Flask.
  • Experiencia en contenedorización con Docker, control de versiones con Git y despliegue en AWS o Google Cloud Platform.
  • Conocimientos en evaluación y benchmarking de modelos de IA, así como en entrenamiento distribuido y optimización usando herramientas como DeepSpeed o BitsAndBytes, que se valorarán altamente.
  • Nivel de inglés intermedio-alto (B2 o superior) para comunicarse de manera efectiva en equipos técnicos internacionales.
  • Capacidad de trabajo autónomo y remoto, proactividad en resolución de problemas y actitud colaborativa para trabajar en equipos distribuidos.
Valoramos especialmente la experiencia en modelado y evaluación rigurosa, así como el interés en seguir aprendiendo y aplicando tecnologías emergentes en el campo de la inteligencia artificial.

Habilidades y conocimientos adicionales valorados


  • Experiencia previa en entrenamiento y ajuste fino de modelos a gran escala en entornos de producción.
  • Conocimientos de optimización de modelos para eficiencia de inferencia y consumo de recursos.
  • Manejo de infraestructura en la nube orientada a machine learning, incluidos pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.
  • Capacidades básicas en otras áreas de la IA, como visión computacional o aprendizaje reforzado.
  • Habilidades comunicativas y capacidad para documentar procesos técnicos de forma clara y precisa.

Qué ofrecemos

Formarás parte de Devups, un entorno de trabajo flexible que impulsa la innovación, el crecimiento profesional y el aprendizaje continuo. Como empresa de staff augmentation, ofrecemos modalidad 100% remota en toda Latinoamérica, facilitando un equilibrio óptimo entre vida laboral y personal.
Promovemos el desarrollo profesional mediante capacitaciones y certificaciones en tecnologías punteras, asegurando que nuestro talento se mantenga a la vanguardia.
Además, nuestro modelo flexible te permite integrarte rápidamente a proyectos desafiantes con gran impacto, participando en la construcción de soluciones avanzadas en inteligencia artificial.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
MLOps Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Send CV through Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Docente Introducción a Herramientas DevOps Sede Melipilla
  • Duoc UC
  • Santiago (In-office)
DevOps Virtualization Amazon Web Services Docker

Duoc UC Sede Melipilla, Escuela de Informática y Telecomunicaciones, requiere contratar docente para la asignatura de Introducción a Herramientas DevOps con disponibilidad en jornada diurna y vespertina, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

© getonbrd.com.

Funciones del cargo

Duoc UC Sede Melipilla, Escuela de Informática y Telecomunicaciones, requiere contratar docente para la asignatura de Introducción a Herramientas DevOps con disponibilidad en jornada diurna y vespertina, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requerimientos del cargo

Es requisito contar con:

  • Formación: Se requiere un Ingeniero(a) en Informática, Ingeniero(a) Ejecución Informática o afín
  • Experiencia: 3 años de experiencia en desarrollo de proyectos implementados en DevOps en forma avanzada. Manejo de AWS, Azure, Docker.
  • Disponibilidad: Jornada Diurna y Vespertina (horario a definir)
  • Otros requisitos: Es deseable que cuente con certificación en alguna nube.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2200 - 2700 Tiempo completo
QA Automation
  • Coderslab.io
Android iOS Python Agile
## Oferta de Empleo: QA Automation **Audience Profile**: Candidatos con experiencia en QA Automation **Tone/Style Preferences**: Profesional, directo y cercano ### **Refined Draft**: En CodersLab, estamos expandiendo nuestros equipos para llevar nuestros productos a más países de Latinoamérica. Por eso, buscamos un QA Automation con ganas de hacer la diferencia. Te unirás a un equipo ambicioso, donde tus propuestas serán clave para el negocio. ¡Queremos que seas parte de este desafío! ### **Qué harás:** * **Automatización de pruebas:** * Diseñarás e implementarás scripts para pruebas automáticas en aplicaciones web, móviles y APIs. Usarás herramientas como Robot Framework y Appium (Android/iOS). * Asegurarás la cobertura de pruebas para servicios REST y GraphQL. * Desarrollarás soluciones personalizadas con Python y mejorarás los frameworks de prueba. * **Pruebas de Bases de Datos:** * Harás pruebas y validarás bases de datos relacionales (MySQL, PostgreSQL) y no relacionales (DynamoDB). * **Gestión y Colaboración:** * Documentarás procesos, resultados y estrategias de prueba en Confluence. * Trabajarás de cerca con desarrolladores y el equipo de negocio para asegurar que se cumplan los requisitos de calidad. * Gestionarás tareas, estimarás esfuerzos y definirás prioridades en Jira. * **Gestión de Infraestructura:** * Configurarás pipelines de integración y despliegue continuo (CI/CD) con GitHub Actions. * Colaborarás en entornos de nube como AWS para ejecutar y mantener pruebas automatizadas. * **Capacitación y Conocimiento:** * Capacitarás al equipo en herramientas, procesos y mejores prácticas de automatización. * Ayudarás a crear una cultura de mejora continua compartiendo tus conocimientos y siendo mentor. ### **Lo que buscamos en ti:** * Al menos 5 años de experiencia como QAA. * Mucha experiencia automatizando pruebas con Robot Framework y Appium (Android/iOS). * Dominio de Python para desarrollar scripts y frameworks. * Experiencia diseñando y ejecutando pruebas de APIs (REST y GraphQL). * Conocimiento de bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB). * Manejo de herramientas CI/CD como GitHub Actions. * Experiencia con AWS. * Uso de herramientas de gestión como Jira y Confluence. * Saber documentar y colaborar con equipos técnicos y de negocio. * Experiencia trabajando en entornos ágiles (Scrum). * Capacidad de liderar proyectos de automatización y promover el aprendizaje continuo. * Buena comunicación y proactividad. * Ser autónomo y capaz de gestionar varias tareas a la vez. ### **Condiciones:** * **Trabajo 100% remoto:** Puedes trabajar desde cualquier parte del mundo.
VER TRABAJO POSTULAR VÍA WEB