We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
Data Engineer
  • 2BRAINS
Python Git Data Analysis SQL

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

This job offer is available on Get on Board.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer
  • Improving South America
SQL Business Intelligence Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

This job is published by getonbrd.com.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
Python Agile SQL Virtualization
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply exclusively at getonbrd.com.

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
Mlops Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Find this job and more on Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
Especialista en IBM Instana Freelance remoto
  • Assist Consultores de Sistemas S.A
  • 🇨🇴 Colombia - Remoto 🌎
Full Time Microservicios reportes AppDynamics
En Assist buscamos un Especialista en IBM Instana Freelance Modalidad: Freelance 100% remoto Buscamos un perfil con experiencia sólida en monitoreo de aplicaciones y rendimiento con IBM Instana. Requisitos clave: Configuración y gestión de monitores en IBM Instana Integración con herramientas como Prometheus, Grafana, o AppDynamics Experiencia en trazabilidad de microservicios y observabilidad end-to-end Conocimiento de contenedores y orquestadores (Docker, Kubernetes) Capacidad de análisis de performance y generación de alertas inteligentes Funciones principales: Configurar y administrar monitoreo Instana Automatizar alertas y dashboards Generar reportes de rendimiento Apoyar la resolución de incidentes críticos Interesados enviar CV con asunto "Freelance Instana" a: dcastro@assist.com.co
APPLY VIA WEB View Job
$$$ Full time
Openshift - Kubernetes - ArgoCD
  • Digital Solutions 324 SL
  • 🇨🇴 Colombia - Remoto 🌎
Full Time Productos Solutions tecnología
Empresa: Digital Solutions 324 SL Ubicación: Trabajo Remoto Tipo de Contrato: Prestación de servicios Descripción de la empresa: Digital Solutions es una compañía innovadora enfocada en proporcionar soluciones tecnológicas avanzadas. Se dedican a mejorar continuamente sus servicios y productos para satisfacer las necesidades de sus clientes. Busca Develops con pasión por la tecnología y compromiso con la excelencia con habilidades técnicas; resolución de problemas, trabajo en equipo, aprendizaje continuo, comunicación efectiva. Experiencia mínima de 1 año Puesto: desarrollador con experiencia en Openshift - Kubernetes - ArgoCD Requisitos: - Persona honesta, responsable y con ética de trabajo. - Edad entre 18-30 años (NO postularse si no aplica). - 100% disponibilidad (no estar trabajando para otras empresas) - No estar estudiando - Imprescindible contar con conexión a internet confiable , computadora y teclado en español - Disponibilidad de postularte desde cualquier Iugar o estado Ofrecen: - Jornada de lunes a viernes, 8 horas diarias ; de 9:00-17:00 hora española - Pago 4 € la hora con posibilidad de aumento por horas según capacidad del profesional de 4 a 10 euros - Se paga por Plataforma Paypal - Ambiente de trabajo colaborativo y dinámico.
APPLY VIA WEB View Job
Gross salary $2100 - 3000 Full time
Ingeniero Soporte Cloud y DevOps
  • Agilesoft SpA
Python Linux DevOps Virtualization

Agilesoft SpA es una pequeña empresa especializada en el desarrollo de software web y móvil, apasionada por las nuevas tecnologías, la innovación y un ambiente laboral agradable. Actualmente, buscamos expandir nuestro equipo técnico con la incorporación de dos Ingenieros de Soporte especializados en Cloud, DevOps, Kubernetes y Linux, que se sumen al equipo de operaciones y soporte de infraestructuras críticas. Estos profesionales serán clave para asegurar la estabilidad, disponibilidad y escalabilidad de las plataformas que soportan nuestros proyectos, aplicando prácticas de Site Reliability Engineering (SRE) y solución avanzada de problemas técnicos.

Exclusive offer from getonbrd.com.

Funciones

  • Implementar, administrar y optimizar infraestructuras en la nube utilizando tecnologías como Kubernetes (K8S) y herramientas DevOps.
  • Proporcionar soporte avanzado en Linux para entornos productivos, incluyendo diagnóstico, troubleshooting y solución de incidentes complejos.
  • Monitorear y garantizar la disponibilidad y rendimiento de los servicios cloud, aplicando las mejores prácticas de SRE.
  • Colaborar en la automatización de procesos para mejorar la eficiencia operativa y la entrega continua.
  • Documentar procesos, soluciones y participar en mejoras continuas del ciclo de vida del software y la infraestructura.
  • Trabajar colaborativamente con equipos de desarrollo y operaciones para asegurar una integración fluida y el despliegue seguro de aplicaciones.

Perfil requerido

Buscamos dos ingenieros con experiencia intermedia a avanzada en soporte y operación de infraestructuras cloud. Deberán tener conocimientos sólidos y demostrables en Kubernetes, Linux y metodologías DevOps. Se valorará experiencia en troubleshooting avanzado, monitoreo con herramientas modernas y principios de Site Reliability Engineering (SRE).

Es imprescindible que sean profesionales proactivos, con pensamiento analítico y capacidad para resolver problemas complejos bajo presión. Deben contribuir a mejorar la estabilidad y escalabilidad de los sistemas, trabajando con mentalidad colaborativa y comunicándose claramente en equipo. Buscamos personas apasionadas por la tecnología, orientadas al aprendizaje continuo y que disfruten aportar en un ambiente dinámico y flexible.

  • Experiencia práctica en administración de Linux (preferentemente distribuciones como Ubuntu, CentOS o Debian).
  • Dominio de Kubernetes y orquestación de contenedores.
  • Manejo de herramientas DevOps y CI/CD.
  • Capacidad para identificar y resolver problemas de infraestructura y aplicaciones en producción.
  • Conocimientos de cloud pública (AWS, Azure o Google Cloud) serán un plus.
  • Habilidades para documentar y estandarizar procesos.

Habilidades y conocimientos deseables

  • Experiencia con herramientas de monitoreo como Prometheus, Grafana o similares.
  • Conocimientos en scripting (Bash, Python) para automatización.
  • Familiaridad con la implementación de políticas de seguridad en entornos cloud.
  • Experiencia en metodologías ágiles y trabajo en equipos multidisciplinarios.
  • Certificaciones relacionadas a Kubernetes, DevOps o Cloud.

Condiciones

En Agilesoft ofrecemos un ambiente laboral grato, flexible, entretenido y dinámico, ideal para desarrollarse profesionalmente mientras se disfruta del trabajo en equipo. Proporcionamos computador para el trabajo, contrato indefinido y modalidad 100% remota, permitiendo trabajar desde cualquier ubicación.

Además contamos con beneficios de caja de compensación Los Andes para Chile, seguro complementario de salud y dental para empleados chilenos, y seguro Yunen para colaboradores en República Dominicana.

Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2400 - 2600 Full time
DevOps Engineer – Proyecto 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Agile DevOps Continuous Integration Virtualization
En BC Tecnología somos una consultora de TI con amplia experiencia en diferentes áreas tecnológicas, que desde hace 6 años diseñamos soluciones acorde a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores dentro del área de infraestructura tecnológica, en equipos ágiles que combinan la experiencia en desarrollo de software y consultoría IT para entregar resultados efectivos y adaptados a cada cliente.

Apply from getonbrd.com.

Funciones principales

  • Implementar, mantener y optimizar pipelines de CI/CD utilizando herramientas como GitLab CI, Jenkins y ArgoCD.
  • Desarrollar y administrar infraestructura como código (IaC) utilizando Terraform, Ansible, Pulumi u otras tecnologías similares.
  • Gestionar y orquestar contenedores mediante Docker y Kubernetes para garantizar despliegues eficientes y escalables.
  • Monitorear sistemas y aplicaciones mediante herramientas de observabilidad como Prometheus, Grafana y Datadog.
  • Colaborar con equipos de desarrollo y operaciones para asegurar la automatización y mejora continua de procesos.
  • Participar en la definición y control de costos operativos en nube, apoyando con modelos de FinOps para optimización financiera.

Requisitos

  • Mínimo 3 años de experiencia como DevOps o Ingeniero de Automatización.
  • Dominio en herramientas CI/CD como GitLab CI, Jenkins y ArgoCD.
  • Sólidos conocimientos en Infraestructura como Código (Terraform, Ansible, Pulumi u otras).
  • Experiencia en contenedores y orquestadores: Docker y Kubernetes.
  • Familiaridad con herramientas de observabilidad y monitoreo (Prometheus, Grafana, Datadog).
  • Conocimientos en modelos de costos y operación en la nube, preferentemente Azure, Google Cloud Platform o Oracle Cloud.
  • Deseable experiencia o certificación en FinOps para control y optimización de gastos en la nube.
  • Capacidad para trabajar en equipo, orientación al detalle, proactividad y aptitud para la resolución de problemas en entornos ágiles.

Deseable

  • Certificaciones oficiales en DevOps, Kubernetes, Terraform o plataformas Cloud.
  • Experiencia con metodologías ágiles y colaboración en equipos multidisciplinarios.
  • Conocimiento en seguridad cloud y automatización de procesos de compliance.
  • Capacidad para documentar procedimientos técnicos y capacitar equipos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2400 - 2600 Full time
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Agile DevOps Continuous Integration Virtualization
En BC Tecnología somos una consultora de TI con amplia experiencia en diferentes áreas tecnológicas, que desde hace 6 años diseñamos soluciones acorde a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores dentro del área de infraestructura tecnológica, en equipos ágiles que combinan la experiencia en desarrollo de software y consultoría IT para entregar resultados efectivos y adaptados a cada cliente.

Apply from getonbrd.com.

Funciones principales

  • Implementar, mantener y optimizar pipelines de CI/CD utilizando herramientas como GitLab CI, Jenkins y ArgoCD.
  • Desarrollar y administrar infraestructura como código (IaC) utilizando Terraform, Ansible, Pulumi u otras tecnologías similares.
  • Gestionar y orquestar contenedores mediante Docker y Kubernetes para garantizar despliegues eficientes y escalables.
  • Monitorear sistemas y aplicaciones mediante herramientas de observabilidad como Prometheus, Grafana y Datadog.
  • Colaborar con equipos de desarrollo y operaciones para asegurar la automatización y mejora continua de procesos.
  • Participar en la definición y control de costos operativos en nube, apoyando con modelos de FinOps para optimización financiera.

Requisitos

  • Mínimo 3 años de experiencia como DevOps o Ingeniero de Automatización.
  • Dominio en herramientas CI/CD como GitLab CI, Jenkins y ArgoCD.
  • Sólidos conocimientos en Infraestructura como Código (Terraform, Ansible, Pulumi u otras).
  • Experiencia en contenedores y orquestadores: Docker y Kubernetes.
  • Familiaridad con herramientas de observabilidad y monitoreo (Prometheus, Grafana, Datadog).
  • Conocimientos en modelos de costos y operación en la nube, preferentemente Azure, Google Cloud Platform o Oracle Cloud.
  • Deseable experiencia o certificación en FinOps para control y optimización de gastos en la nube.
  • Capacidad para trabajar en equipo, orientación al detalle, proactividad y aptitud para la resolución de problemas en entornos ágiles.

Deseable

  • Certificaciones oficiales en DevOps, Kubernetes, Terraform o plataformas Cloud.
  • Experiencia con metodologías ágiles y colaboración en equipos multidisciplinarios.
  • Conocimiento en seguridad cloud y automatización de procesos de compliance.
  • Capacidad para documentar procedimientos técnicos y capacitar equipos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
$$$ Full time
Experienced DevOps Engineer
  • coderslab.io
Redis Agile PostgreSQL Git

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job from Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines de CI/CD para mejorar la entrega continua de software.
  • Administrar y optimizar entornos de contenedores y orquestación con Docker, Kubernetes y otras tecnologías.
  • Implementar prácticas robustas de monitoreo, seguridad y alta disponibilidad.
  • Gestionar infraestructura mediante Infraestructura como Código (IaC) y herramientas de automatización.
  • Documentar, estandarizar y optimizar procesos y arquitecturas DevOps.
  • Colaborar con equipos de desarrollo y operaciones para fomentar la cultura DevOps y metodologías ágiles.

Requerimientos del cargo

Experiencia

  • Más de 3 años en roles de DevOps o administración de infraestructura.
  • Más de 2 años en administración de sistemas Linux (sysadmin).
  • Experiencia en entornos ágiles como Scrum y Kanban.
  • Familiaridad con la cultura y prácticas DevOps.

Conocimientos Clave

  • Oracle WL/OSB.
  • Infraestructura como Código (IaC): Terraform, Pulumi.
  • Control de versiones y CI/CD: GIT/GitLab, ArgoCD.
  • Contenedores y orquestación: Docker, Containerd, Swarm, Kubernetes (GKE, AKS).
  • Automatización y configuración: Chef, Ansible.
  • Cloud Computing: experiencia en Azure o GCP.
  • Gestión de secretos: Vault u otras herramientas similares.
  • Monitoreo y observabilidad: Prometheus, Grafana, ELK, Datadog.
  • Redes y seguridad: protocolos, balanceo de carga, firewalls.

Conocimientos Deseables

  • API Management: Apigee, Kong.
  • Mensajería: RabbitMQ.
  • Bases de datos: Postgres, Redis, MongoDB.

¿Qué ofrecemos?

  • Trabajo en un entorno dinámico y tecnológico.
  • Oportunidades de crecimiento y aprendizaje continuo.
  • Cultura colaborativa y orientada a la innovación.
  • Flexibilidad y modalidad de trabajo a negociar.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $1800 - 2900 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
DevOps Continuous Integration Virtualization Docker

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job through Get on Board.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros. Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi. Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño. Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP). Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro. Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización. Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros.
Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi.
Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño.
Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP).
Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro.
Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización.
Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.) Conocimientos sólidos en Infraestructura como Código (IaC). Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI). Experiencia o certificación en FinOps (deseable). Manejo de contenedores y orquestadores (Docker, Kubernetes). Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.)
Conocimientos sólidos en Infraestructura como Código (IaC).
Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI).
Experiencia o certificación en FinOps (deseable).
Manejo de contenedores y orquestadores (Docker, Kubernetes).
Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Apply directly on Get on Board.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB View Job
$$$ Full time
Cloud/DevOps Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python NoSQL DevOps Virtualization
En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas, trabajando para clientes de sectores financieros, seguros, retail y gobierno. Nuestro enfoque está en el diseño y desarrollo de soluciones, administración de portafolios y outsourcing de profesionales, siempre bajo metodologías ágiles y con un fuerte alineamiento con las necesidades de los clientes. Este proyecto en particular tiene una duración inicial de 6 meses con posibilidad de extensión, y se basa en tecnologías punteras de la nube, automatización e infraestructura como código, enfocándose en ambientes cloud modernos y escalables.

Apply directly at getonbrd.com.

Responsabilidades principales

  • Participar en el desarrollo, implementación y mantenimiento de infraestructura en Google Cloud Platform (GCP), utilizando herramientas como BigQuery, Cloud Run, GKE y Cloud Scheduler.
  • Automatizar procesos y gestionar infraestructura mediante Terraform, asegurando la correcta gestión de recursos y estados.
  • Configurar y mantener pipelines CI/CD en GitLab, promoviendo la integración y entrega continua de software.
  • Administrar contenedores usando Docker y orquestación con Kubernetes para asegurar despliegues consistentes y escalables.
  • Gestionar bases de datos SQL y NoSQL, así como servicios serverless para optimizar la arquitectura del proyecto.
  • Trabajar en entornos Unix/Linux, asegurando la estabilidad y buen funcionamiento de la infraestructura.
  • Documentar procesos técnicos y colaborar activamente con el equipo para proponer mejoras continuas y soluciones innovadoras.

Requisitos técnicos y perfil del candidato

Buscamos un profesional con experiencia intermedia o superior en Python, capaz de desarrollar y automatizar componentes relacionados con DevOps y Cloud. Se requiere un sólido conocimiento en GCP, incluyendo servicios esenciales como BigQuery, Cloud Run, GKE y Cloud Scheduler, para construir infraestructuras escalables y eficientes.
El manejo avanzado de Terraform es imprescindible para gestionar la infraestructura como código, incluyendo la administración de recursos y estados. Además, la familiaridad con GitLab CI/CD es necesaria para orquestar pipelines de integración y despliegue continuo.
Se valoran también competencias en Docker y Kubernetes para la gestión de contenedores, así como experiencia en bases de datos SQL y NoSQL y en la utilización de servicios serverless. Un buen dominio de sistemas operativos Unix/Linux es requerido para el correcto desempeño en el entorno de trabajo.
Desde el punto de vista de habilidades blandas, buscamos personas con pensamiento crítico, autonomía y proactividad para detectar y sugerir mejoras en procesos. La capacidad para documentar procedimientos y colaborar eficazmente en equipo es fundamental para el éxito en este rol.
Si te apasiona trabajar en entornos cloud modernos con tecnologías escalables y afrontar retos técnicos constantes, esta posición es una gran oportunidad para seguir desarrollándote profesionalmente.

Habilidades y conocimientos adicionales valorados

Se valorará experiencia previa en manejo de servicios serverless avanzados y en la implementación de soluciones completas de infraestructura como código que involucren múltiples nubes o servicios híbridos. Conocimientos en metodologías ágiles, como Scrum o Kanban, serán apreciados, junto con habilidades para proponer y ejecutar mejoras que optimicen la eficiencia operacional. La experiencia en entornos de trabajo colaborativo y multidisciplinarios también es deseable.

Beneficios y ambiente laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB View Job
$$$ Full time
Ingeniero/a DevOps Semi Sr
  • Arara
Python Git Linux Go

Arara es una empresa tecnológica especializada en WiFi marketing, ofreciendo soluciones innovadoras que optimizan la conectividad y la experiencia del usuario.

En Arara, estamos buscando un/a Ingeniero/a DevOps Semi-Sr apasionado/a y con iniciativa para unirse a nuestro equipo de tecnología.

Buscamos a un/a profesional proactivo/a, con una sólida capacidad para resolver problemas complejos de infraestructura y automatización, y que no solo ejecute tareas, sino que también contribuya activamente en el diseño de una infraestructura escalable, segura y eficiente, mejorando continuamente nuestros procesos de despliegue y operaciones.

Apply exclusively at getonbrd.com.

¿Qué es lo que harás?

  • Diseñar, implementar y mantener pipelines de Integración Continua y Despliegue Continuo (CI/CD) para nuestras aplicaciones.
  • Automatizar el aprovisionamiento y gestión de infraestructura utilizando herramientas de Infraestructura como Código (IaC) como Terraform o Ansible.
  • Administrar y optimizar nuestra infraestructura en la nube, principalmente en GCP, AWS o Azure, garantizando disponibilidad, rendimiento y control de costos.
  • Gestionar ecosistemas de contenedores basados en Docker y orquestadores como Kubernetes (K8s).
  • Implementar y administrar soluciones de monitoreo, logging y alertas (ej. Prometheus, Grafana, ELK Stack) para asegurar la salud de los sistemas en tiempo real.
  • Colaborar estrechamente con equipos de desarrollo (Backend, Frontend, Datos) para agilizar y asegurar el ciclo de vida del software desde el código hasta producción.
  • Diagnosticar, depurar y resolver problemas de infraestructura, despliegue y rendimiento en entornos de desarrollo y producción.
  • Participar activamente en revisiones de código de infraestructura y scripts de automatización.
  • Contribuir en decisiones técnicas sobre la arquitectura de la nube y la selección de herramientas DevOps.
  • Ayudar a fortalecer la seguridad de infraestructura y pipelines aplicando mejores prácticas de DevSecOps.

Estamos buscando una persona que cumpla con lo siguiente:

Experiencia profesional: Mínimo de 4 a 6 años en roles de DevOps, Site Reliability Engineering (SRE) o administración de sistemas en la nube.

Formación: Título profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Software o carreras afines, o experiencia equivalente.

Conocimientos técnicos requeridos:

  • Experiencia práctica en al menos una plataforma de nube pública (Google Cloud Platform, AWS, Azure), gestionando servicios de cómputo, redes y almacenamiento.
  • Sólidos conocimientos en construcción y mantenimiento de pipelines CI/CD con herramientas como GitLab CI, Jenkins o GitHub Actions.
  • Experiencia en Infraestructura como Código usando Terraform o Ansible.
  • Manejo avanzado de contenedores Docker y experiencia con orquestadores como Kubernetes.
  • Capacidad para escribir scripts de automatización en Bash, Python o Go.
  • Conocimiento en herramientas de monitoreo, métricas y logging como Prometheus, Grafana, ELK Stack o Datadog.
  • Dominio de Git y metodologías colaborativas como GitFlow.

Habilidades blandas: Persona proactiva, con iniciativa, capacidad para resolver problemas complejos, capaz de trabajar en equipo y comunicarse efectivamente con los diferentes equipos

Habilidades y conocimientos adicionales valorados

  • Experiencia en seguridad informática aplicada a DevOps (DevSecOps).
  • Conocimiento de otros lenguajes de scripting o programación además de Bash, Python o Go.
  • Familiaridad con metodologías ágiles y prácticas de desarrollo colaborativo.
  • Conocimiento en sistemas de gestión de bases de datos y manejo avanzado de redes en la nube.

Lo que ofrecemos en Arara:

  • 100% remoto – Trabaja desde cualquier lugar con huso horario de América.
  • Cultura organizacional horizontal e innovadora.
  • Equipo colaborativo – Somos un equipo pequeño, horizontal y cercano, donde tu aporte realmente cuenta.
  • Trabajar en una industria en crecimiento: IA aplicada.
  • Capacitaciones en Habilidades profesionales y personales de manera constante.

APPLY VIA WEB View Job
Gross salary $1100 - 1400 Full time
Ingeniero DevOps
  • TREM Group
Python Redis MySQL Linux
En TREM Group nos especializamos en proyectos tecnológicos innovadores orientados al sector inmobiliario. Nuestra misión es crear soluciones tecnológicas que transformen y optimicen los procesos en esta industria. El equipo de Ingeniería es el núcleo técnico que desarrolla y mantiene infraestructuras robustas y escalables en la nube para soportar un crecimiento masivo y entrega continua. Buscamos profesionales que se unan a este equipo, participando activamente en el diseño, construcción y evolución de plataformas de alto rendimiento y alta disponibilidad, facilitando a los desarrolladores alcanzar su máximo potencial mediante una base tecnológica sólida, flexible y segura.

Exclusive offer from getonbrd.com.

Funciones del Puesto

Como Ingeniero DevOps, formarás parte de un equipo técnico multidisciplinario encargado de diseñar, crear, mantener, escalar, monitorear y proteger nuestra infraestructura en la nube. Colaborarás estrechamente con equipos de ingeniería para identificar y aplicar herramientas que permitan iterar rápidamente nuestras líneas de productos, garantizando la seguridad en cada despliegue.
Entre tus responsabilidades principales estarán:
  • Implementar y mantener pipelines de integración y entrega continua automatizadas.
  • Gestionar infraestructuras usando herramientas de Infraestructura como Código (IaC) para asegurar la reproducibilidad y escalabilidad.
  • Optimizar el rendimiento, confiabilidad y seguridad de los sistemas en producción.
  • Monitorear y responder proactivamente a incidentes utilizando sistemas de observabilidad como Prometheus, Grafana y Loki.
  • Ejecutar y administrar contenedores en producción con plataformas como Docker, Kubernetes o AWS ECS.
  • Brindar soporte y colaboración técnica a desarrolladores para que conviertan buenas prácticas en estándares de excelencia.
  • Comunicar de manera clara los planes, avances y desafíos al equipo de ingeniería, facilitando la toma de decisiones y la mejora continua.

Requisitos y Habilidades

Buscamos un ingeniero con entre 2 y 6 años de experiencia (preferentemente 4 o más) que disfrute una combinación de ingeniería de software, confiabilidad del sitio, automatización, optimización y operaciones. Debes ser un usuario avanzado de Linux, con sólida experiencia en scripting Bash y familiaridad con herramientas Open Source.
Es fundamental que tengas experiencia construyendo y gestionando infraestructuras en la nube utilizando Infraestructura como Código, con herramientas como Terraform, Ansible, scripting en Go o Python y el uso directo de APIs de proveedores cloud.
Debes conocer profundamente la creación y operación de contenedores (Docker principalmente) y la gestión de éstos en producción usando plataformas como AWS ECS, Kubernetes o Docker Swarm.
Tienes que haber implementado pipelines de integración y entrega continua con herramientas como GitLab CI, Travis o CircleCI, que permitan despliegues automatizados y confiables.
Serás competente manejando bases de datos relacionales y NoSQL como MySQL, Redis, Elasticsearch y MongoDB, comprendiendo su alta disponibilidad y limitaciones operativas.
Valoramos que tengas una mentalidad orientada a la toma de decisiones basada en datos y que puedas comunicar con claridad temas técnicos complejos, manteniendo la calma bajo presión y mostrando empatía y escucha activa en el equipo.
Experiencia con monitoreo y observabilidad a través de herramientas como Prometheus, Grafana y Loki es imprescindible.
Contar con conocimientos en distribuciones avanzadas de despliegue de software como Canary Deploys o Blue/Green Deployments, así como en pruebas de producción automatizadas, es un plus importante.
Preferimos candidatos que entiendan las arquitecturas distribuidas, los compromisos entre consistencia, disponibilidad y tolerancia a particiones, y que tengan experiencia con AWS y metodologías ágiles.

Conocimientos y Experiencia Deseables

Te destacará tener experiencia en software desarrollado en ámbitos académicos o de estudios de grado. El manejo de metodologías ágiles y trabajo en entornos dinámicos será una ventaja. Deseamos candidatos con capacidad para implementar prácticas avanzadas de despliegue continuo (Canary y Blue/Green) y que puedan diferenciar claramente cuándo usar bases de datos relacionales o NoSQL.
Una experiencia superior a 3 años con AWS y en infraestructura basada en Terraform o Ansible será muy valorada, al igual que la capacidad para aportar en proyectos distribuidos y escalables. El trabajo 100% remoto es posible, por lo que buscamos profesionales autónomos y con excelente comunicación remota.

Beneficios

  • Compensación competitiva acorde a la experiencia.
  • Relación laboral a largo plazo (freelance, contrato o tiempo completo).
  • Acceso a las mejores plataformas de e-learning para crecimiento continuo.
  • Ambiente de trabajo colaborativo, innovador y con gran soporte entre compañeros.
Nuestro proceso de selección incluye una prueba técnica corta online. Si estás listo para trabajar en proyectos reales e impactantes del sector inmobiliario con un equipo dinámico y comprometido, esta es tu oportunidad para crecer y desarrollar tu carrera profesional.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Digital library Access to digital books or subscriptions.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
DevOps Sr
  • coderslab.io
  • Santiago (Hybrid)
Python Docker Kubernetes CI/CD

CodersLab es una compañía dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un Devops

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Aplica ahora para este increíble reto!

Find this job on getonbrd.com.

Funciones del cargo

  • Diseñar e implementar arquitecturas basadas en contenedores usando Kubernetes
  • Gestionar infraestructura como código (IaC) utilizando Terraform
  • Implementar y mantener pipelines CI/CD
  • Administrar plataformas de automatización y orquestación
  • Garantizar la seguridad y cumplimiento normativo de la infraestructura
  • Optimizar y mantener sistemas Oracle Linux
  • Desarrollar scripts de automatización

Requerimientos del cargo

🔧 REQUISITOS TÉCNICOS
Cloud y Virtualización:

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI)
  • Conocimiento de redes, IAM, VCN, WAF en OCI
  • Manejo de almacenamiento en la nube

Sistemas Operativos:

  • Dominio de Oracle Linux 8/9
  • Experiencia en hardening y tuning de sistemas
  • Conocimientos de SELinux y systemd

Contenedores y Orquestación:

  • Docker y Kubernetes
  • Helm Charts
  • ArgoCD
  • Kong API Gateway

IaC y Automatización:

  • Terraform (nivel avanzado)
  • GitLab CI/CD
  • HashiCorp Vault
  • Experiencia en GitOps

Programación:

  • Bash scripting avanzado
  • Python para automatización
  • APIs REST

Bases de Datos:

  • Conocimientos en MSSQL, PostgreSQL y MySQL (deseable)

Seguridad:

  • Experiencia en implementación de estándares PCI-DSS
  • Gestión de secretos y políticas de seguridad
  • Escaneo de vulnerabilidades

👥 HABILIDADES BLANDAS

  • Capacidad de liderazgo técnico
  • Excelente comunicación
  • Resolución de problemas complejos
  • Trabajo en equipo
  • Gestión de stakeholders

📝 DETALLES DEL CONTRATO

  • Duración: 12 meses
  • Inicio: 16 de junio 2025
  • Modalidad: Híbrida
  • Ubicación: Presidente Riesco 5435, Las Condes, Santiago, Chile

🎯 EXPERIENCIA REQUERIDA

  • Mínimo 5 años en roles DevOps
  • Experiencia demostrable en entornos bancarios o regulados
  • Proyectos exitosos de implementación de IaC y CI/CD

💪 VALORAMOS

  • Certificaciones en OCI, Kubernetes, Terraform
  • Experiencia en transformación digital
  • Conocimiento de metodologías ágiles
  • Participación en proyectos multicloud

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

APPLY VIA WEB View Job
$$$ Full time
Software Development in Test (SDET) L2
  • Capital Markets Gateway
JavaScript Docker GraphQL Kubernetes

Capital Markets Gateway (CMG) is a fintech firm that streamlines equity capital markets (ECM), connecting investors and underwriters. Launched in 2017, CMG provides integrated ECM data, analytics, and workflow efficiencies, enabling better decision-making for nearly 150 buy-side firms ($40T AUM) and 20 global investment banks (Goldman Sachs, J.P Morgan, Barclays etc)

As a SDET L2 you will play a pivotal role in enhancing our test infrastructure and tooling, creating new frameworks and systems that facilitate automated testing processes, leading to more efficient issue identification and robust solution delivery. You will work closely with product managers, designers, and software engineers to ensure our products are highly testable, contributing to the development and maintenance of testing frameworks and strategies. You will bring to the team industry best practices around functional and regression testing and ensure high-quality and high-velocity product launches.

Apply to this job opportunity at getonbrd.com.

The Role

Key Responsibilities

  • Design, build, and maintain scalable test infrastructure, automation frameworks, and developer-facing tools to accelerate testing and improve product reliability
  • Collaborate closely with Product Managers, Developers, and Designers to ensure testability is built into features and system architecture from the start
  • Develop strategies for integrating automated tests deeply into CI/CD pipelines, enabling fast and reliable feedback loops across all stages of development
  • Create reusable tooling and libraries that allow engineering teams to easily write, run, and maintain automated tests for APIs, services, and full-stack applications
  • Proactively identify gaps in existing testing strategies and design new systems to improve test coverage, efficiency, and scalability across the platform
  • Analyze and debug complex failures in automated test systems, differentiating between test infrastructure issues and product defects
  • Champion a quality engineering culture across the organization, mentoring developers on writing effective tests, improving code testability, and leveraging automation tooling
  • Drive continuous improvement of QA automation tooling, test data management solutions, and environment reliability to support rapid product development at scale
  • Leverage Large Language Models (LLMs) to design and implement intelligent, AI-driven workflows into core processes, enabling smarter, faster, and more effective and efficient automation workflows

Our Tech Stack

  • Playwright, Jest, xUnit
  • Docker, Kubernetes, Helm
  • GitHub Actions, Harness, Terraform, GitOps
  • Microsoft Azure Cloud
  • Datadog, Grafana, OpenTelemetry
  • Postgres, Elasticsearch, Redis
  • Asp.Net REST and GraphQL back-ends
  • React with TypeScript front-ends
  • React-Native Mobile App

What We're Looking For

  • English level - C1 or C2
  • Proven experience as a Software Developer in Test 2 (SDET2) or similar role
  • 5+ years of experience in JavaScript/TypeScript development or test automation
  • Expert in automated testing and modern testing frameworks (e.g., Playwright, Jest, xUnit)
  • Deep understanding of full-stack web application architecture (frontend to production)
  • Structured, detail-oriented thinker with awareness of broader system goals
  • Quick learner, self-motivated, and comfortable working with minimal supervision
  • Strong analytical, problem-solving, and communication skills (written and verbal)
  • Enjoys team collaboration, continuous learning, and building scalable solutions
  • Data-driven mindset with a preference for experimentation and iterative improvement
  • Interest or experience with integrating Large Language Models (LLMs) into development or testing workflows

What We Offer

  • 2 year+ contract
  • 15 business days of vacation
  • Tech courses and conferences
  • Top-of-the-line MacBook
  • Fully remote working environment
  • Flexible working hours

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Capital Markets Gateway provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $1400 - 2000 Full time
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Python Linux Sysadmin Continuous Integration
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

Send CV through getonbrd.com.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
Gross salary $1500 - 2200 Full time
Ingeniero DevOps Cloud
  • RiskAmerica
Git Linux Docker Kubernetes

RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.

Estamos buscando gente apasionada que le interese desarrollar soluciones SaaS grandes y complejas junto a un equipo ágil, capaz y ameno de más de 20 personas.

Nos caracterizamos por tener un ritmo de trabajo flexible, tranquilo y constante en el tiempo teniendo una muy buena relación vida/trabajo. Contamos con un proceso de desarrollo de software ágil y maduro usando CI/CD y Cloud Computing con énfasis en crear soluciones de excelente calidad.

El trabajo es actualmente 100% remoto con presencialidad voluntaria para los que quieran hacer uso de nuestras oficinas a pasos del Metro Los Leones.

This offer is exclusive to getonbrd.com.

Que harás con nosotros

  • Diseñar, implementar y mantener infraestructuras en la nube.
  • Trabajarás en pipelines CI/CD
  • Administrarás contenedores, orquestarás deploy, escalamiento de recursos.
  • También colaborarás con equipos de desarrollo para optimizar procesos y mejorar la infraestructura existente.
  • Entre tus tareas diarias estará la monitorización, resolución de incidencias y evaluación de nuevas tecnologías que potencien la eficiencia en la nube y CI/CD.

Que necesitamos de ti

  • Seas egresada o egresado de Ingeniería Informática o carrera afín (de al menos 8 semestres)
  • Experiencia en GCP.
  • Conocimiento de pipelines CI/CD
  • Experiencia con Linux.
  • Experiencia en gestión de contenedores con Docker y Kubernetes.
  • Experiencia en GIT
  • Leer en ingles sin google translator.
  • Se requiere al menos 2 años de experiencia en roles similares.

Sumas puntos si

  • Conocimientos en AWS.
  • Has participado en proyectos SaaS
  • Experiencia en pipelines CI/CD en GitLab
  • Experiencia en base de datos MariaDB
  • Cuentas con conocimientos o experiencia en el rubro de inversiones
  • Conocimientos de Seguridad TI

Beneficios

  • Excelente clima laboral junto a un gran equipo de profesionales.
  • Seguro complementario de salud, incluyendo coberturas dentales, catastróficas y de vida.
  • Amplias posibilidades de aprendizaje en el sector de inversiones y mercados financieros.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena conciliación entre vida personal y trabajo.

Si vienes a la oficina:

  • La oficina esta ubicada en pleno centro de providencia a pasos del metro.
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Education stipend RiskAmerica covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
DevOps Senior
  • coderslab.io
  • Santiago (Hybrid)
Python MySQL PostgreSQL Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un devops senior para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is original from Get on Board.

Funciones del cargo

  • Diseño, implementación y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD y Kong API Gateway.
  • Backend Cloud DEvops
  • Automatización
  • servicios Cloud
  • Despliegues seguros, reproducibles y escalables con fuerte orientación a la seguridad.
  • Gestión de secretos y credenciales con HashiCorp Vault, asegurando cumplimiento de estándares como PCI-DSS.
  • Desarrollo y mantenimiento de pipelines CI/CD robustos y automatización de procesos mediante scripting avanzado en Bash y Python.
  • Integración y operación en entornos regulados, especialmente bancarios.
  • Administración y optimización de infraestructura en OCI, incluyendo redes, IAM, VCN, almacenamiento y seguridad (WAF, escaneo de vulnerabilidades).
  • Implementación de infraestructura versionada y reproducible con Terraform.
  • Gestión de imágenes Docker y orquestación con Kubernetes.
  • Colaboración en entornos híbridos y multicloud.

Requerimientos del cargo

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI).
  • Oracle Linux 8/9: endurecimiento, SELinux, systemd, optimización y troubleshooting.
  • Terraform: módulos reutilizables, workspaces, estados remotos.
  • GitLab CI/CD y ArgoCD para pipelines y GitOps.
  • Kubernetes, Helm, Docker, Argo Workflows, Kong API Gateway.
  • HashiCorp Vault para gestión de secretos y políticas de seguridad.
  • Scripting avanzado en Bash y Python.
  • Experiencia con bases de datos MSSQL, PostgreSQL y MySQL (deseable).
  • Conocimiento en normativas y buenas prácticas de ciberseguridad y cumplimiento (PCI-DSS).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

APPLY VIA WEB View Job
$$$ Full time
DevOps
  • TIMINING
Python Go Docker Kubernetes
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

Apply to this job from Get on Board.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.
El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.
1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad
Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $2000 - 3000 Full time
DevOps Engineer Modyo
  • I2B Technologies
Linux Docker Azure Jenkins
I2B Technologies es una empresa comprometida con impulsar la transformación digital en sus clientes, ayudándolos a mejorar la calidad de vida de los usuarios finales a través de desarrollos de alto impacto. La empresa cuenta con una amplia experiencia y metodología sólida basada en cuatro pilares fundamentales: Consultoría, Desarrollo de Software, Evolución y Data Science. Estos pilares sustentan proyectos que resuelven desafíos industriales y mejoran la experiencia entre empresas y sus usuarios.
Formar parte del equipo de I2B implica integrarse a un ámbito que no solo se ocupa de la creación y ejecución de ideas, sino también de un acompañamiento constante para asegurar el éxito y la evolución continua de los proyectos.

Apply directly through getonbrd.com.

Funciones

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD) que aseguren la eficiencia y calidad en los procesos de desarrollo y despliegue.
  • Automatizar y gestionar la infraestructura usando herramientas como Terraform, Ansible u otras similares para optimizar y estandarizar los entornos.
  • Administrar entornos en la nube, priorizando plataformas como AWS, Azure o Google Cloud Platform, garantizando la disponibilidad, escalabilidad y seguridad de los mismos.
  • Supervisar el rendimiento de los sistemas, establecer monitoreos robustos y gestionar la resolución de incidentes para minimizar interrupciones y asegurar la continuidad operativa.
  • Colaborar estrechamente con los equipos de desarrollo para optimizar los despliegues, mejorar los entornos de testing y facilitar la integración entre aplicaciones y servicios.

Requisitos

Buscamos profesionales con más de 3 años de experiencia demostrable en roles de DevOps o ingeniería de infraestructura, capaces de manejar sistemas complejos y variadas tecnologías de automatización y nube.
Es imprescindible contar con experiencia en tecnologías de contenedores, particularmente Docker y Kubernetes, además de una sólida administración de servidores Linux para garantizar la estabilidad y seguridad de los servicios.
Se requiere un conocimiento profundo y práctico en herramientas y procesos de CI/CD, como Jenkins, GitLab CI o GitHub Actions, para asegurar la implementación continua en ambientes flexibles y escalables.
La experiencia con servicios en la nube es fundamental, destacando AWS, Azure o Google Cloud Platform, con habilidad para administrar y monitorear infraestructuras distribuidas e integradas.
Se valorarán certificaciones oficiales en Cloud Computing y metodologías DevOps, ya que demuestran un compromiso con la actualización constante y las mejores prácticas del área.
Además, el candidato debe poseer habilidades interpersonales para el trabajo en equipo, capacidad analítica para resolver problemas complejos y una mentalidad proactiva orientada a la mejora continua.

Deseable

Certificaciones en tecnologías cloud y DevOps, como AWS Certified Solutions Architect, Azure DevOps Engineer Expert o Certified Kubernetes Administrator, son altamente valoradas.
Experiencia adicional en herramientas complementarias de automatización y configuración como Puppet o Chef sería un plus importante.
Conocimientos en metodologías ágiles y herramientas de colaboración (JIRA, Confluence) ayudarán a integrarse fluidamente con los equipos multidisciplinarios.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Fitness subsidies I2B Technologies offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Senior Cloud Platform & DevOps Engineer
  • BC Tecnología
  • Santiago (In-office)
Python SQL BigQuery Kubernetes

En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas. Desde hace 6 años apoyamos a clientes de sectores como servicios financieros, seguros, retail y gobierno, brindando soluciones a medida que incluyen la consultoría, desarrollo de proyectos, outsourcing y administración de servicios IT.

Formamos equipos ágiles especializados para Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio que garantizan la entrega de valor y el alineamiento con los objetivos empresariales de nuestros clientes. Nuestro enfoque se centra en la innovación, metodología ágil y excelencia operativa.

El área de Plataformas y Cloud es fundamental dentro de nuestra propuesta, donde integramos conocimientos avanzados en servicios cloud, automatización y DevOps para empujar la transformación digital y eficiencia operativa de las organizaciones que acompañamos.

Apply exclusively at getonbrd.com.

Funciones principales

Como Ingeniero Senior de Plataformas, serás responsable de la administración y optimización de entornos híbridos en la nube, específicamente en Google Cloud Platform. Esta posición es estratégica para la construcción y mantenimiento de infraestructura como código, automatización de despliegues continuos y soporte a operaciones críticas que aseguren la estabilidad y seguridad de los servicios.

Tu día a día incluirá desarrollar y mantener módulos de Terraform, gestionar clústeres Kubernetes (GKE), administrar pipelines CI/CD en GitLab, y trabajar estrechamente con el equipo para documentar procesos, mejorar la calidad de las implementaciones y asegurar la adherencia a buenas prácticas DevOps.

También implicará colaborar con diversas áreas para evaluar nuevas herramientas y enfoques, resolver incidentes operativos, y garantizar el cumplimiento de políticas de seguridad y gobernanza en el entorno cloud.

Descripción y requisitos del puesto

Buscamos un profesional senior con un perfil técnico sólido en ingeniería de plataformas y amplia experiencia en Google Cloud Platform. Es fundamental el dominio intermedio a avanzado de Python, que será usado para scripts y automatizaciones, junto con conocimientos avanzados en BigQuery y SQL para el manejo eficiente de datos.

Se requiere experiencia en la administración de clústeres GKE y buen nivel en Terraform, desde la creación de módulos hasta la gestión del estado y resolución de problemas. Es imprescindible el manejo de GitLab CI para orquestación de pipelines, así como un manejo básico a intermedio de Unix para la operación en consola.

El candidato debe demostrar pensamiento crítico, autogestión y proactividad para abordar retos técnicos, además de habilidades interpersonales sólidas para trabajo en equipo, atención al cliente y resiliencia ante situaciones complejas. La capacidad para redactar documentación técnica clara y precisa es fundamental.

Se valora un compromiso genuino con la diversidad, inclusión y el respeto por opiniones diversas, reflejando nuestros valores culturales.

Conocimientos y habilidades deseables

Serán altamente valorados conocimientos adicionales en IAM de GCP, particularmente en la gestión de permisos, impersonación y principios de mínimos privilegios, junto con experiencia básica o intermedia en networking tanto en entornos on-premise como en Google Cloud.

Experiencia con Kubernetes on-premise y la administración y mantenimiento de nodos fortalecerá tu candidatura. Además, familiarizarse con herramientas como ArgoCD para CD, Apache Airflow y Composer para orquestación de workflows será una ventaja competitiva.

El manejo de herramientas de inteligencia artificial asistidas como Copilot, Gemini o Cursor, así como un entendimiento de arquitecturas hexagonales y el diseño de pruebas automatizadas en Python reflejarán un perfil técnico avanzado. También se valorará experiencia con ciclos completos DevOps.

Beneficios y cultura organizacional

En BC Tecnología ofrecemos un ambiente de trabajo colaborativo que valoriza el compromiso, el aprendizaje continuo y el desarrollo profesional. Aunque no se detallan beneficios específicos en esta oferta, promovemos la integración estrecha entre equipos para facilitar el intercambio de conocimientos y fomentar tu crecimiento.

Trabajamos con metodologías ágiles junto a clientes de alto nivel en sectores diversos, lo que te permitirá participar en proyectos innovadores y desafiantes, potenciando tu carrera técnica y profesional dentro de un marco de respeto e inclusión social.

APPLY VIA WEB View Job
$$$ Full time
Ingeniero DevOps
  • Agilesoft SpA
Oracle DevOps Continuous Integration Virtualization

Agilesoft es una start-up formada por gente joven, enfocada en el desarrollo de software. Somos amantes de la tecnología, con un ambiente laboral entretenido y grato.

Descripción:
Trabajamos principalmente desarrollando plataformas web y aplicaciones móviles para grandes empresas. A la vez, tenemos la necesidad de desafiarnos constantemente a mejorar nuestras buenas prácticas y expertise en las diferentes tecnologías emergentes. Somos agnósticos a las marcas o productos, amamos la velocidad de transformación y la posibilidad de aprender cada día algo nuevo.

Apply directly through getonbrd.com.

Funciones del cargo

Estamos en búsqueda de un Ingeniero DevOps (100% Remoto) para integrarse a nuestro equipo

Deberá realizar una monitorización continua de todo el ciclo de vida del desarrollo del software y debe saber cómo administrar la infraestructura TI, asegurando la integración y despliegue continuo.

Es muy importante la motivación por aprender, estar actualizado en tecnologías y autogestión para cumplir con el equipo, los cuales pueden ser diversos y cambiar, por lo que debes estar preparado para un ambiente dinámico, desafiante y divertido para crecer como profesional.

Requerimientos del cargo

- Título profesional de Ingeniería civil / ejecución en computación / informática.
- Minimo 3 años de experiencia como Devops
- Kubernetes
- Docker
- Grafana / Prometheus
- ⁠Experiencia con CI/CD (por ejemplo jenkins, azure devops, github)
- ⁠Experiencia con diferentes proveedores Cloud (por ejemplo Oracle, Azure, Google)
- ⁠Keycloak (deseable)
- ⁠Terraform (deseable)

Condiciones

- Ambiente laboral grato, flexible, entretenido y dinámico.
- Computador de trabajo.
- Contrato indefinido
- Modalidad: 100% Remota

- Caja de compensación Los Andes (CHILE)
- Seguro complementario de Salud y Dental. (CHILE)
- Seguro Yunen (REPUBLICA DOMINICANA)

Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
APPLY VIA WEB View Job
$$$ Full time
Senior Site Reliability Engineer (SRE)
  • Moventi
Python MySQL Go Kubernetes
Moventi is a forward-thinking technology company dedicated to helping organizations embrace innovation through cutting-edge technologies. We provide an environment where multidisciplinary talents collaborate to drive digital transformation and shape the future with technology. Our teams engage with state-of-the-art cloud infrastructure projects and large-scale SaaS platforms designed to scale and maximize reliability and efficiency.
Our current project focuses on designing, building, and operating highly available, scalable infrastructure on cloud platforms such as AWS EKS and Azure AKS. This includes advanced data ingestion pipelines handling hundreds of terabytes to petabytes of data, leveraging technologies like Clickhouse and Kafka. We prioritize observability, security, and automation using modern tools and practices to ensure robust SaaS operations.

Apply without intermediaries through Get on Board.

Primary Responsibilities and Role Overview

As a Senior Site Reliability Engineer (SRE), you will be instrumental in architecting, deploying, and managing complex cloud-native infrastructure in large-scale SaaS environments. Your role includes designing and maintaining Kubernetes clusters (AWS EKS, Azure AKS) using Infrastructure as Code tools such as Terraform, ensuring seamless scalability and reliability.
You will be responsible for implementing observability solutions across monitoring, logging, tracing, and metrics collection using Prometheus, Grafana, Datadog, and ELK ecosystem to maintain robust system health and performance. Managing data ingestion pipelines with high-volume technologies like Clickhouse and Kafka will be part of your core tasks.
Collaboration with cross-functional teams to drive GitOps CI/CD processes, writing automation scripts in Python, Go (Golang), and Bash to streamline deployments and operations, and enforcing security best practices involving encryption, key management, and policy enforcement are key duties. In addition, you will design and maintain disaster recovery strategies for critical components such as MySQL, Kafka, and Zookeeper, ensuring business continuity and data integrity.
This role requires active participation in a large, dynamic team environment where your expertise will elevate operational standards and foster innovation around high availability SaaS platforms.

Required Experience and Skills

We are looking for a professional with a minimum of 7 years designing, building, and maintaining SaaS environments with a strong focus on large-scale cloud infrastructure. Candidates must have at least 5 years of hands-on experience working with AWS EKS and Azure AKS managed Kubernetes clusters, leveraging Terraform for infrastructure automation.
Key technical expertise includes managing data ingestion in large environments through Clickhouse and Kafka, handling data volumes scaling up to petabytes. A solid background in observability tools such as Prometheus, Grafana, Datadog, and ELK for monitoring, logging, and tracing is mandatory.
Expertise in GitOps practices and CI/CD pipelines is essential. We expect proven scripting skills in Python, Go (Golang), Bash, and AWS CLI to automate operational workflows. Candidates must demonstrate at least 3 years of experience managing security operations including enforcing infrastructure security policies, managing encryption at rest and in transit, and key management.
In-depth knowledge of disaster recovery planning and execution for distributed systems including MySQL, Kafka, and Zookeeper is required. The ideal candidate should be a proactive and collaborative team player, able to communicate complex technical concepts effectively while taking initiative in a fast-paced innovative environment. Strong problem-solving skills, risk management, and a passion for continuous improvement are imperative to succeed in this role.

Additional Preferred Skills and Experience

Experience with service mesh technologies such as Istio and Kubernetes operators is highly valued to optimize application connectivity and lifecycle management. Familiarity with large scale data architectures and tuning Kafka clusters would be advantageous. Prior exposure to cloud security frameworks and compliance standards, as well as experience leading or mentoring SRE teams within enterprise environments, will be considered a strong plus.
An innovative mindset with eagerness to explore emerging tools and automation techniques is welcome, along with excellent interpersonal skills suitable for a multidisciplinary collaborative culture.

Our Offer and Work Environment

At Moventi, we provide a stimulating and innovative work atmosphere located in the heart of San Isidro, Lima, featuring convenient parking and recreational zones to promote wellbeing during breaks. Our hybrid work model gives you the flexibility to balance time between our fully equipped office and remote work tailored to team and personal preferences.
We prioritize professional growth by exposing you to challenging, diverse projects that foster continuous learning and skills enhancement. Our organizational culture is based on transparency, collaboration, commitment, risk-taking, and innovation. We offer formal employment contracts with full legal benefits from day one, ensuring job security and comprehensive protections.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $2400 - 2600 Full time
DevOps AWS Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Git Linux DevOps Docker
En BC Tecnología, somos una consultora especializada en servicios IT con un amplio expertise en diversas áreas tecnológicas. Nuestra oferta incluye la administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales. Formamos equipos ágiles para áreas como Infraestructura, Desarrollo de Software y unidades de negocios, atendiendo a clientes en sectores financieros, seguros, retail y gobierno.
El proyecto actual, con duración inicial de 6 meses y posibilidad de extensión, se enmarca dentro de nuestra línea de trabajo basada en soluciones tecnológicas innovadoras. Se centra en potenciar la infraestructura cloud de nuestros clientes a través de la implementación avanzada de DevOps sobre AWS, contribuyendo a la transformación digital y optimización continua de servicios críticos.

Apply to this job directly at getonbrd.com.

Principales responsabilidades y funciones

Como DevOps AWS Engineer, serás responsable de diseñar, implementar y mantener infraestructuras cloud utilizando AWS y otras tecnologías modernas. Trabajarás en conjunto con equipos multifuncionales para garantizar la automatización, escalabilidad y eficiencia de las plataformas de producción y desarrollo.
  • Implementar y gestionar servicios en AWS, asegurando su disponibilidad y desempeño.
  • Utilizar herramientas de infraestructura como código (IaaC), especialmente Terraform, para construir y mantener entornos reproducibles y confiables.
  • Administrar y optimizar pipelines CI/CD, integrándolos con Git, Docker y Kubernetes.
  • Asegurar la integración de monitoreo y logging mediante plataformas ELK (Elasticsearch, Logstash, Kibana) para la visibilidad completa de las operaciones.
  • Promover prácticas DevOps sólidas que faciliten la entrega continua y la colaboración entre equipos de desarrollo y operaciones.
  • Gestionar y solucionar incidencias en entornos Linux, garantizando la estabilidad y seguridad de los sistemas.

Requisitos y habilidades necesarias

Buscamos un profesional con al menos 2 años de experiencia práctica en entornos AWS y servicios cloud relacionados. Es fundamental poseer un sólido entendimiento de los principios y prácticas DevOps, combinando conocimientos técnicos en infraestructura y desarrollo de software para optimizar procesos y recursos tecnológicos.
Se requiere experiencia avanzada en la utilización de herramientas de infraestructura como código, especialmente Terraform, para automatizar la provisión y gestión de recursos cloud. Además, debe manejar con soltura tecnologías de contenedores y orquestación, tales como Docker y Kubernetes, para asegurar despliegues eficientes y portabilidad.
El candidato debe tener habilidades para administrar sistemas Linux, dominar control de versiones con Git y familiarizarse con plataformas ELK para la supervisión y análisis de logs. Además, es imprescindible contar con competencias para trabajar en equipo, comunicación efectiva y adaptabilidad a metodologías ágiles en entornos dinámicos.

Habilidades y conocimientos deseables

Sería altamente valorado contar con experiencia previa en proyectos de infraestructura cloud en sectores regulados como financiero o gobierno, donde las mejores prácticas de seguridad y cumplimiento son esenciales. Conocimientos en automatización avanzada de pipelines CI/CD y familiaridad con otras herramientas complementarias de monitoreo y seguridad también serán considerados un plus. Asimismo, la capacidad para aportar iniciativas de mejora continua y adaptación tecnológica contribuirá significativamente al éxito del proyecto.

Beneficios y entorno laboral

Ofrecemos un contrato basado en proyectos con posibilidad de continuidad según desempeño, trabajando en un entorno laboral presencial en Santiago, Chile, con modalidad híbrida que combina flexibilidad y colaboración directa.
Formarás parte de un equipo profesional comprometido con la innovación tecnológica, desarrollando soluciones vanguardistas en tecnologías cloud e inteligencia artificial.
Nuestra consultora aplica metodologías ágiles y atiende clientes de alto nivel en múltiples sectores, generando un ambiente ideal para el desarrollo profesional, aprendizaje continuo y crecimiento dentro de la empresa.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply directly on the original site at Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Apply without intermediaries through Get on Board.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
Gross salary $2400 - 3000 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Ruby Python Git Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPSpara sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Find this vacancy on Get on Board.

Funciones del cargo

  1. Diseño e Implementación de Infraestructura:
    • Diseñar e implementar soluciones de infraestructura que cumplan con los estándares de alta disponibilidad, escalabilidad y observabilidad.
    • Automatizar la configuración y el despliegue de los componentes de la infraestructura utilizando herramientas de Infraestructura como Código (IaC), como Terraform.
  2. Mantenimiento y Monitoreo:
    • Tomar posesión de los componentes de la infraestructura, asegurando su confiabilidad y rendimiento a través de revisiones de código y pruebas.
    • Implementar y gestionar herramientas de monitoreo y observabilidad, incluyendo ELK stack y Datadog, para garantizar la integridad y el rendimiento de los sistemas.
  3. Colaboración y Gestión de Proyectos:
    • Colaborar con otros ingenieros, partes interesadas y equipos de operaciones para comprender los requisitos comerciales y brindar soluciones técnicas efectivas.
    • Trabajar en un entorno de desarrollo ágil, utilizando herramientas como Jira y Confluence para gestionar el trabajo y realizar un seguimiento del progreso.
  4. Optimización y Mejora Continua:
    • Identificar y abordar los puntos débiles en los sistemas de la empresa a través de la automatización y la optimización.
    • Mantenerse actualizado con las tecnologías emergentes y las tendencias de la industria en el espacio DevOps/SRE para impulsar la innovación.
  5. Desarrollo y Scripting:
    • Programar en lenguajes como Python, Ruby y Bash para optimizar procesos y herramientas de infraestructura.

Requerimientos del cargo

  • Experiencia: Mínimo 3 años de experiencia como ingeniero DevOps o en roles relacionados con infraestructura cloud, incluyendo migración de infraestructura.
  • Conocimientos Técnicos:
    • Competencia en lenguajes de programación desde una perspectiva de infraestructura (Python, Ruby, Bash).
    • Familiaridad con servicios Cloud (AWS, Azure, GCP, etc.).
    • Experiencia con herramientas de monitoreo y logs, como ELK stack y Datadog.
    • Conocimiento avanzado de herramientas de infraestructura como código (IaC), específicamente Terraform.
    • Gran comprensión de los principios y prácticas de DevOps.
    • Experiencia en administración de sistemas Linux, control de versiones (Git), y tecnologías de contenedorización (Docker, Kubernetes).
  • Habilidades Personales:
    • Fuertes habilidades de comunicación y colaboración.
    • Capacidad para trabajar en un entorno ágil y adaptarse a cambios.
    • Pensamiento analítico y orientación a resultados.
    • Compromiso con la mejora continua y la innovación.

APPLY VIA WEB View Job
Gross salary $2600 - 2800 Full time
Ingeniero DevOps
  • BC Tecnología
  • Santiago (Hybrid)
Python Linux DevOps Virtualization
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente y metodologías ágiles. Durante los últimos 6 años hemos diseñado soluciones personalizadas para una variedad de sectores incluyendo servicios financieros, seguros, retail y gobierno. Gestionamos un portafolio diversificado, desarrollamos proyectos innovadores, y ofrecemos servicios de outsourcing y selección de profesionales. Nuestro equipo está compuesto por expertos en diferentes áreas tecnológicas, lo que nos permite formar equipos de trabajo ágiles y eficaces. Como parte de tu rol como Ingeniero DevOps, tendrás la oportunidad de postularte para ser parte en la gestión de plataformas en Oracle Cloud Infrastructure (OCI) y Microsoft Azure, contribuyendo así a la mejora continua de la infraestructura de nuestros clientes.

This company only accepts applications on Get on Board.

Responsabilidades:

  • Administrar y mantener la infraestructura de plataformas en OCI y Azure.
  • Gestionar y automatizar los procesos de implementación de sistemas.
  • Monitorear el rendimiento y la disponibilidad de las plataformas.
  • Implementar y mantener herramientas de CI/CD.
  • Colaborar con equipos de desarrollo para mejorar la eficiencia y la calidad de los despliegues.
  • Resolver problemas y optimizar el rendimiento de las aplicaciones y servicios.

Requisitos:

  • Experiencia comprobable en administración de plataformas en OCI y Azure.
  • Conocimientos en herramientas de automatización y CI/CD.
  • Habilidades en scripting y programación (Python, Bash, etc.).
  • Experiencia en la gestión de contenedores y orquestación (Docker, Kubernetes).
  • Conocimiento en Power Platform (deseable).
  • Capacidad para trabajar en un entorno híbrido y adaptarse a los horarios establecidos.

Deseable:

Conocimiento en Power Platform es considerado un plus, de igual forma, habilidades adicionales en herramientas existentes de orquestación y su manejo eficiente podrían ser favorables en el proceso de selección. Se aprecia una actitud proactiva y la voluntad de enfrentar y resolver problemas que surjan en un entorno dinámico.

Beneficios:

En BC Tecnología, valoramos a nuestros colaboradores y ofrecemos un entorno dinámico con oportunidades de continuo aprendizaje. Trabajarás en proyectos innovadores que ofrecen retos tecnológicos, en una modalidad híbrida que permite 4 días de trabajo remoto y 1 día en la oficina. También ofrecemos un seguro complementario de salud, acceso a Amipass y aguinaldos en fiestas patrias y Navidad.
¡Si te apasiona la tecnología y deseas unirte a un equipo altamente cualificado, esta es tu oportunidad!

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $4000 - 6500 Full time
Senior DevOps Engineer
  • Coalesce
Java PHP Linux DevOps

Coalesce is a full-stack product shop that solves digital challenges through technology, design, and innovation. Our work spans multiple industries and product types, and we pride ourselves on building scalable, high-quality solutions for our clients.

As a Senior DevOps Engineer, you will be a key part of our engineering team, responsible for designing, implementing, and maintaining infrastructure for both internal projects and client engagements. You'll work closely with engineers, product teams, and leadership to ensure our platforms are secure, resilient, and efficient. Your work will directly impact our ability to deliver reliable and performant applications while supporting development teams with the tools they need to work effectively.

© Get on Board.

What You'll Do

As a Senior DevOps Engineer, your role will focus on building and maintaining AWS environments using Terraform, Kubernetes (K8s), AWS, and Jenkins. You’ll also have the opportunity to contribute to back-end development if you have experience in PHP or Java.

Key Responsibilities:

  • Monitor: Ensure stability, reliability, and security across all Coalesce internal and client environments.
  • Mitigate: Address high load times, downtime, hardware failures, intrusions, and vulnerabilities to maintain system performance.
  • Prevent: Develop processes and best practices to improve infrastructure durability, security, and efficiency across projects.
  • Optimize: Identify and implement improvements to development team workflows, infrastructure performance, and deployment pipelines.
  • Communicate: Educate and collaborate with internal teams and clients on best practices for cloud infrastructure, automation, and security.
  • Manage: When applicable, oversee and mentor developers, engineers, and architects on infrastructure best practices.
  • Respond: Be available (within reason) to address critical issues related to system reliability, performance, and security.

Who You Are

The ideal candidate has a strong background in DevOps and cloud infrastructure management, particularly within AWS environments. We’re looking for someone who is proactive, solutions-oriented, and capable of working independently and collaboratively.

Must-Have Skills & Experience:

  • 5+ years of experience in DevOps, Site Reliability Engineering (SRE), or Infrastructure Engineering
  • Strong expertise in AWS services (EC2, S3, RDS, IAM, Lambda, etc.)
  • Experience with Infrastructure as Code (IaC) tools like Terraform
  • Strong understanding of Kubernetes (K8s) and Helm for managing Kubernetes applications
  • Experience with CI/CD pipelines using Jenkins, GitHub Actions, or similar tools
  • Strong experience with Linux systems administration and networking
  • Knowledge of security best practices, monitoring, and system reliability engineering (SRE)

Nice to Have

  • Experience with PHP or Java, with the ability to contribute to back-end development when needed
  • Familiarity with observability tools like Prometheus, Grafana, or Datadog
  • Experience with serverless computing (AWS Lambda, Fargate, etc.)
  • Knowledge of configuration management tools (Ansible, Chef, or Puppet)
  • Prior experience leading DevOps initiatives or mentoring junior engineers

Why Join Us?

At Coalesce, we believe great work happens when talented people have the flexibility, support, and autonomy to thrive. Here’s what we offer:

  • Competitive Salary – Based on experience and expertise.
  • Flexible Work Schedule – We prioritize results over rigid schedules. Work when you’re most productive.
  • Remote-Friendly Culture – While we have teams in NYC, South Florida, and Nashville, we embrace remote collaboration.
  • Generous PTO – Take time off when you need it. We encourage work-life balance.
  • Health Coverage – Comprehensive medical, dental, and vision plans.
  • Continuous Learning – Opportunities to attend conferences, workshops, and training.
  • Exciting Projects – Work on diverse and impactful projects with cutting-edge technology.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Coalesce offers space for internal talks or presentations during working hours.
Speaker travel If you speak at a conference, Coalesce will cover your expenses.
Health coverage Coalesce pays or copays health insurance for employees.
Education stipend Coalesce covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Coalesce covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Coalesce gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
Gross salary $2000 - 2200 Full time
Ingeniero DevOps y Monitoreo
  • BC Tecnología
JavaScript .Net DevOps Continuous Integration
En BC Tecnología, somos una consultora de TI especializada en ofrecer soluciones innovadoras a nuestros clientes en los sectores de servicios financieros, seguros, retail y gobierno. Con un enfoque en el cliente y la implementación de metodologías ágiles, diseñamos y desarrollamos proyectos tecnológicos que abarcan desde la consultoría hasta el apoyo en infraestructura tecnológica. En este proyecto específico, buscamos un Ingeniero DevOps y Monitoreo, quien será parte de un equipo dinámico enfocado en optimizar la administración y el monitoreo de nuestras soluciones en entornos de nube como Azure y GCP.

Apply from getonbrd.com.

Funciones del puesto

Como Ingeniero DevOps y Monitoreo, tendrás responsabilidades clave que incluyen:
  • Implantar y gestionar entornos de integración y despliegue continuo utilizando GitLab.
  • Desarrollar y mantener infraestructuras como código utilizando Terraform.
  • Colaborar en la implementación de aplicaciones en plataformas en la nube como Azure y GCP.
  • Implementar soluciones de contenedores utilizando Docker y Kubernetes para asegurar despliegues eficientes.
  • Participar en la monitorización de sistemas y aplicaciones para garantizar su disponibilidad y rendimiento óptimos.
Esperamos que puedas colaborar con nuestro equipo para ofrecer soluciones robustas y escalables a nuestros clientes.

Descripción del perfil buscado

Buscamos un profesional con al menos 4 años de experiencia en el área de DevOps, que cuente con habilidades técnicas comprobadas en:
  • GitLab para la gestión de repositorios y flujos de trabajo CI/CD.
  • Plataformas de nube como Azure y Google Cloud Platform (GCP).
  • Tecnologías de infraestructura como código, específicamente Terraform.
  • Desarrollo con .Net y JavaScript.
  • Contenerización de aplicaciones mediante Docker y gestión de orquestadores como Kubernetes.
Valoramos la capacidad para trabajar de manera remota, así como habilidades de trabajo en equipo, comunicación efectiva y una mentalidad de mejora continua.

Habilidades deseables

Sería ideal que el candidato tuviera experiencia adicional en:
  • Automatización de procesos de infraestructura y despliegue.
  • Herramientas de monitoreo y gestión de rendimiento.
  • Implementación de metodologías ágiles en proyectos de TI.
  • Participación en equipos multidisciplinarios para la solución de incidencias y mejoras.
La capacidad para adaptarse a nuevas tecnologías y un enfoque proactivo son altamente valoradas.

Beneficios de trabajar con nosotros

Ofrecemos un contrato por proyecto de 6 meses con posibilidad de extensión, acompañado de un sueldo a convenir. Nuestros empleados disfrutan de:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Nuestra ubicación en Alto Las Condes proporciona un entorno de trabajo moderno y funcional. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

APPLY VIA WEB View Job
Gross salary $1200 - 1400 Full time
Ingeniero Cloud
  • BC Tecnología
  • Lima (In-office)
Amazon Web Services Docker Microservices Jenkins
En BC Tecnología, somos una consultora de TI en constante evolución, ofreciendo servicios que incluyen la gestión de portafolios, desarrollo de proyectos y outsourcing de talento en diferentes áreas tecnológicas. Durante los últimos 6 años, hemos trabajado con clientes en servicios financieros, seguros, retail y gobierno, creando soluciones personalizadas que responden a las necesidades específicas de cada cliente. Nuestras áreas de negocio abarcan consultoría, formación de equipos de trabajo, y servicios de soporte y administración IT, siempre con un enfoque claro en el cliente y el uso de metodologías ágiles.

Exclusive to Get on Board.

✅ Requerimiento:

Estamos buscando un Especialista Cloud que cuente con al menos 2 a 3 años de experiencia en el área. Las responsabilidades incluirán:
  • -Experiencia práctica con Docker (creación, optimización de imágenes).
  • -Conocimientos avanzados de AWS (despliegue, configuración y seguridad).
  • -Experiencia en arquitectura de software (microservicios, escalabilidad, etc.).
  • -Manejo de herramientas de CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • -Habilidades de liderazgo técnico y comunicación efectiva.

✅ Condiciones:

El candidato ideal deberá tener habilidades técnicas sólidas y ser un buen comunicador. Ofrecemos un contrato por proyecto estimado a 6 meses, con trabajo presencial en nuestras oficinas en San Isidro, Perú. La disponibilidad requerida es de lunes a viernes de 9:00 am a 6:00 pm. El salario se definirá de común acuerdo, basado en la experiencia y conocimientos del candidato.

Deseable:

Sería ideal contar con conocimientos adicionales en Kubernetes, Terraform u otras plataformas de cloud computing, lo que será valorado durante el proceso de selección.

APPLY VIA WEB View Job
Gross salary $2000 - 2300 Full time
Arquitecto Cloud Presencial
  • BC Tecnología
  • Lima (In-office)
Agile Continuous Integration Virtualization Amazon Web Services
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente. Nos especializamos en administrar portafolios y desarrollar proyectos innovadores para sectores de servicios financieros, seguros, retail y gobierno. Buscamos crear equipos de trabajo ágiles para abordar desafíos complejos utilizando metodologías como Scrum y Kanban. Actualmente, estamos enfocados en la creación de soluciones de cloud computing utilizando tecnologías de vanguardia.

© Get on Board. All rights reserved.

Responsabilidades del Rol

Como Arquitecto Cloud, tu papel será fundamental en la creación e implementación de infraestructuras en la nube eficientes y seguras. Tus responsabilidades incluirán:
  • Diseñar arquitecturas de software utilizando microservicios y asegurar la escalabilidad.
  • Optimizar y crear imágenes Docker para diversos entornos.
  • Asegurar la configuración, seguridad y despliegue eficiente en AWS.
  • Integrar y gestionar herramientas de CI/CD como Jenkins, GitLab CI y GitHub Actions.
  • Colaborar con equipos multidisciplinarios para la implementación de soluciones en la nube.
  • Manejar herramientas como Kubernetes y Terraform para facilitar la orquestación y automatización.

Perfil Buscado

Buscamos a un profesional con al menos 2 a 3 años de experiencia en arquitecturas en la nube. El candidato ideal deberá contar con un sólido conocimiento en:
  • Docker - Creación y optimización de imágenes.
  • AWS - Despliegue, configuración y seguridad avanzada.
  • Arquitectura de software - Microservicios y escalabilidad.
  • CI/CD - Familiaridad con herramientas como Jenkins, GitLab CI, y GitHub Actions.
  • Kubernetes y Terraform son altamente valorados.
Además, es esencial poseer habilidades de trabajo en equipo, buena comunicación y la capacidad para resolver problemas de manera creativa.

Conocimientos Deseables

Si bien no son requisitos obligatorios, se valorarán habilidades adicionales en la gestión de proyectos, así como certificaciones en tecnologías de la nube que demuestren tu compromiso con la formación continua. La experiencia previa trabajando en entornos ágiles será una ventaja y permitirá integrarse de manera efectiva en nuestro equipo colaborativo.

Beneficios de Trabajar con Nosotros

Ofrecemos un entorno laboral dinámico y colaborativo, donde el crecimiento profesional es una prioridad. Nuestro modelo de trabajo híbrido te permite disfrutar de un equilibrio óptimo entre el trabajo remoto y presencial. Además, tendrás acceso a oportunidades de capacitación continua y un ambiente que fomenta la innovación.

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2800 - 3000 Full time
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

Exclusive offer from getonbrd.com.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
$$$ Full time
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

Apply directly from Get on Board.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB View Job
Gross salary $6500 - 7500 Full time
Data Engineer / Data Architect
  • Zaelot
Python SQL Web server Big Data
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

Apply directly on the original site at Get on Board.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $1500 - 2000 Full time
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

-Desarrollo de componentes en Python
-Utilización de BigQuery:Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
-Transformación de Datos:Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
-Pruebas de Precisión de Datos:Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
-Seguimiento de Cambios:Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
-Construcción de Modelos de Datos: Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
-Escritura de Código de Transformación: Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
Implementación y Documentación: Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

-Programación
-Python
-SQL: Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.-GCP
-BigQuery : Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos
-Kubernetes
-Docker

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 6 meses

APPLY VIA WEB View Job
Gross salary $3000 - 4000 Full time
Senior Data Scientist
  • Niuro
BigQuery Docker Kubernetes Google Cloud Platform
Niuro connects projects with elite tech teams, specializing in collaboration with leading U.S. companies. The position is part of Niuro's international team focused on delivering impactful, data-driven solutions. These projects leverage advanced industrial data science techniques such as predictive maintenance, causal modeling, time series analysis, forecasting, classification, regression, and recommender systems. Niuro empowers tech teams with continuous growth opportunities and handles all administrative tasks, enabling team members to focus on cutting-edge innovation within global client projects.

Find this job and more on Get on Board.

Responsibilities

As a Senior Data Scientist at Niuro, you will be a key contributor to diverse data science projects across various industries. Your main responsibilities include designing and implementing models for predictive maintenance, causal inference, time series forecasting, classification and regression tasks, and recommender systems. You will collaborate with cross-functional teams to develop robust solutions that generate actionable insights for global clients.
You will also be expected to apply your deep knowledge of mathematical engineering and AI to solve complex problems, mentor junior data scientists, and ensure best practices in data preparation, modeling, and deployment, primarily using technologies like Google Cloud Platform (GCP) and BigQuery.
This role requires strong communication skills to translate technical findings into business value and participate in strategic decision-making.

Requirements

We are seeking candidates with a degree in Mathematical Engineering or related fields in Artificial Intelligence. You should have extensive experience working on a variety of data science projects, including but not limited to predictive maintenance, causal modeling, time series analysis, forecasting, classification and regression, causality analysis, and recommender systems.
Proficiency in Google Cloud Platform (GCP) and BigQuery is essential for this role. Experience with cloud-based data infrastructure and scalable data processing pipelines is required.
We value candidates with a strong analytical mindset, problem-solving skills, and a collaborative approach. Ability to work fully remotely with global teams while maintaining high engagement and communication standards is important.
Bonus experience includes working in sectors such as mining, mechanical systems, or finance, where domain-specific knowledge can enhance project impact.

Preferred Qualifications

Experience with additional cloud platforms, advanced causal inference frameworks, and big data technologies is highly desirable. Familiarity with containerization and orchestration tools like Docker and Kubernetes can be a plus.
Prior work in industrial or mechanical sectors, especially mining and finance, is beneficial to understand domain-specific challenges and tailor data solutions accordingly.
Strong leadership skills and experience mentoring junior data scientists will be considered valuable.

What We Offer

We offer the opportunity to engage in technically rigorous, impactful industrial data projects fostering professional growth and innovation. Our environment promotes technical excellence and continual learning.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere around the globe.
Continuous career development is encouraged through training programs and leadership growth opportunities.
Following successful initial collaboration, there is the possibility of transitioning into a stable, long-term full-time position.
Joining Niuro means becoming part of a global tech community backed by strong administrative support that allows you to focus on delivering exceptional results.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $3000 - 4000 Full time
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL SQL
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Find this vacancy on Get on Board.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer
  • 2BRAINS
Python Git REST API Data Analysis

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Opportunity published on Get on Board.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
Python Agile SQL Virtualization
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply from getonbrd.com.

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
Mlops Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Find this job on getonbrd.com.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $5000 - 5500 Full time
Arquitecto de Soluciones IoT
  • coderslab.io
  • Ciudad de Guatemala (Hybrid)
Virtualization Internet of Things Azure Kubernetes

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Arquitecto de Soluciones IoT para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Diseñar arquitecturas IoT fim-to-cloud y edge-to-cloud integrando componentes on-premises, edge y cloud (Azure), garantizando escalabilidad, seguridad y disponibilidad.

Definir y liderar la implementación de soluciones basadas en virtualización y contenedores, utilizando tecnologías como VMware vSphere/NSX-T, Kubernetes, AKS u OpenShift.

Diseñar redes industriales seguras y segmentadas, aplicando microsegmentación, firewalls y políticas de control de acceso para entornos OT/IT.

Integrar plataformas de almacenamiento distribuido y soluciones de edge computing con Azure IoT Edge, IoT Hub y protocolos IoT como MQTT o AMQP.

Monitorear y optimizar la infraestructura IoT utilizando herramientas de observabilidad, como Prometheus, Grafana, ELK Stack y OPManager, asegurando el cumplimiento de los objetivos de negocio y de seguridad.

Requerimientos del cargo

  • Diseño de arquitecturas IoT fim-to-cloud y edge-to-cloud.
  • Dominio de infraestructura híbrida: on-premises, edge y cloud.
  • Virtualización: VMware vSphere, ESXi, vSAN, NSX-T.
  • Hypervisores: KVM, Hyper-V, VMware.
  • Orquestación de contenedores: Kubernetes, AKS, OpenShift.
  • Redes y segmenetación.
  • Microsegmentación y seguridad de red con NSX-T, Firewalls, ACLs.
  • Almacenamiento distribuido y de alto rendimiento: NAS, SAN, Ceph, Azure Storage.
  • Protocolos de comunicación IoT: MQTT, AMQP, CoAP, HTTP/2.
  • Implementación de soluciones de edge computing con Azure IoT Edge.
  • Integración con plataformas IoT cloud: Azure IoT Hub.
  • Observabilidad: Elastic, Prometheus, Grafana, ELK Stack, OPManager.
  • Capacidad de liderazgo técnico en programas de transformación digital industrial.
  • Comunicación efectiva con equipos OT, IT y de negocio.
  • Enfoque en arquitectura resiliente, segura, mantenible y alineada con objetivos de negocio.

Condiciones

Modalidad de contratación: Prestación de servicio.

APPLY VIA WEB View Job
Gross salary $2300 - 2500 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Python Linux DevOps Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPS para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

Ingeniero de Plataforma con sólida experiencia en la gestión e implementación de infraestructura como código (IaC) y automatización de plataformas híbridas y multicloud. Especialista en Oracle Cloud Infrastructure (OCI), con dominio avanzado de Oracle Linux (8 y 9), incluyendo hardening, tuning y troubleshooting de sistemas en
entornos productivos críticos.
Competente en el diseño y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD, y Kong API Gateway, garantizando despliegues seguros, reproducibles y escalables. Fuerte orientación a la seguridad y gestión de secretos mediante HashiCorp Vault, cumpliendo estándares como PCI-DSS
y buenas prácticas de ciberseguridad.
Habilidad avanzada en scripting con Bash y Python para automatización de procesos, integración de pipelines y monitoreo. Experiencia práctica en diseño de pipelines CI/CD robustos, infraestructura autoservicio y GitOps.
Ideal con experiencia en otros motores como MSSQL, Postgresql y mysql

Requerimientos del cargo

Stack Principal
Cloud: Oracle Cloud (OCI), incluyendo Networking, IAM, Compute, VCN, Object
Storage, Vulnerability Scanning, WAF
Linux: Oracle Linux 8/9 (hardening, performance tuning, SELinux, systemd)
IaC & Automatización: Terraform (módulos reutilizables, workspaces, state remotos),
GitLab CI, ArgoCD
Contenedores: Docker, Kubernetes, Helm, Argo Workflows, Kong Ingress
Seguridad: HashiCorp Vault, integración con OCI IAM, gestión de tokens y políticas
Scripting: Bash avanzado, Python (scripts para automatización, integración con APIs
REST)
Docker: gestion de imagenes docker.

Fortalezas

Implementación de infraestructura reproducible y versionada en OCI con Terraform.
Automatización de despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en
GitLab.
Integración segura de servicios mediante Kong y políticas personalizadas.
Gestión de secretos y credenciales dinámicas en entornos sensibles usando Vault.
Experiencia en entornos bancarios y regulados, con foco en cumplimiento y resiliencia.

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 15 meses con renovacion

APPLY VIA WEB View Job
$$$ Full time
Administrador de Aplicaciones Smart Cities &Amp; Mobility
  • SONDA
  • Santiago (Hybrid)
Linux Docker Kubernetes Red Hat
En SONDA, la Innovación es parte de nuestro ADN.
Miramos hacia el futuro focalizándonos en las últimas tendencias y noticias sobre innovación, tecnologías con impacto y sostenibilidad.
Conocemos los desafíos y demandas de la región y contamos con un amplio portafolio de soluciones de negocio especializadas en las principales industrias del mercado. Vive la experiencia SONDA en nuestra división de Smart Cities & Mobility, en la unidad de negocio de Transporte .

Apply through Get on Board.

· Mantener y administrar aplicaciones, asegurando la disponibilidad de los servicios en concordancia con los SLA comprometidos para cada solución.

· Asegurar la continuidad del servicio y el respaldo de la información.
· Asegurar el cumplimiento de normas de calidad.
· Proponer mejoras en el servicio.
· Mantener informados a Jefe de Área y clientes sobre avances y resultados.

Requerimientos del cargo

· Estudios Superiores (Título Profesional relacionado al rubro TI).
· Desde 3 años de experiencia laboral relacionada al cargo.
· Conocimiento y experiencia trabajando con sistemas Linux.
· Conocimiento y experiencia trabajando con sistemas de Virtualización Red Hat.

· Conocimiento y experiencia trabajando en aplicaciones Cloud.

· Conocimientos en Kubernetes y/o Dockers.

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Life insurance SONDA pays or copays life insurance for employees.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2000 - 2500 Full time
Senior Infrastructure Engineer (AWS)
  • Niuro
Python Linux DevOps Virtualization
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
We empower projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. With a strong focus on professional growth, Niuro offers continuous training in technical and soft skills as well as leadership development to ensure success in innovative and challenging projects. We also manage all administrative tasks including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Joining Niuro means working within a collaborative environment where talent can grow and reach its full potential, participating in impactful and technically rigorous industrial data projects that drive innovation and professional growth.

Applications: getonbrd.com.

Technical Snapshot & Key Responsibilities

  • Architect and maintain multi-account infrastructure in AWS using Terraform, including reusable modules, remote state management, drift detection, and enforcement of security and cost policies.
  • Operate Kubernetes/EKS clusters and large-scale EC2 fleets with features such as autoscaling, right-sizing, and blue/green deployments (surge and rollback).
  • Automate golden AMI pipeline creation using tools like Packer and AWS Systems Manager (SSM).
  • Manage critical Windows Server workloads and IIS in production: hardening, patching, centralized log management, and scaling IIS behind ALB/NLB.
  • Implement end-to-end observability solutions, unifying logs, metrics, and traces across CloudWatch, OpenSearch/ELK, Datadog, FluentBit, and Winlogbeat, creating dashboards and alerts that reduce 5xx errors and accelerate root cause analysis.
  • Conduct infrastructure sweeps and tuning to improve reliability, fix misconfigurations, optimize RDS (failover, replicas, connection management) and FSx, and enforce checks through CI/CD pipelines.
  • Design and execute performance readiness testing including load and stress tests with tools like k6, Locust, JMeter, and Python scripts to validate scaling and eliminate bottlenecks before peak traffic periods.

Requirements

  • 5+ years experience in DevOps, Infrastructure Engineering, or Site Reliability Engineering (SRE) roles.
  • Advanced expertise in AWS services including RDS, FSx, CloudWatch, EC2, and ELB.
  • Hands-on experience with Terraform and Kubernetes, strongly preferred expertise with EKS.
  • Practical production experience managing Windows Server and IIS workloads on AWS including patching, scaling, and integrating IIS logs.
  • Expertise in EC2 scaling strategies and golden AMI image workflows.
  • Proven skills deploying and managing observability stacks that provide actionable alerts and diagnostics.
  • Strong background in performance and load testing methodologies.
  • Proficient scripting skills in Python and Bash; PowerShell experience is a plus.
  • Excellent communication skills, systems thinking ability, and meticulous attention to detail.

Nice-to-Have Skills

  • Experience with policy-as-code tools such as Open Policy Agent (OPA) or Sentinel.
  • Knowledge of service mesh or serverless architecture patterns.
  • Expertise in security automation frameworks including CIS benchmarks and AWS Inspector.
  • Familiarity with cost-optimization tooling in cloud environments.
  • Leadership experience managing high-traffic incidents and operational response.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $3000 - 3300 Full time
Ingeniero/a DevOps
  • Magnet
Python Linux Go DevOps

Magnet es una empresa de ingeniería enfocada en usar software para entregar soluciones de alta calidad a los problemas de nuestros clientes. Nos gusta entender sus procesos y su negocio para así entregarles el máximo valor posible.

Hace 13 años comenzamos desarrollando pequeñas plataformas de software, pero hoy trabajamos en grandes proyectos, como gestionar las limitaciones operacionales de una aerolínea completa o digitalizar el proceso de migraciones de un país.

Si bien somos bastante exigentes en términos técnicos, ya que tenemos un gran enfoque en la ingeniería, también nos dedicamos a pasarlo bien cada vez que podemos. En ese sentido, nos esforzamos muchísimo en tener una cultura abierta, que le permita a todas/os crecer profesionalmente y sentirse bien en su trabajo, no solo porque entendemos que entregar productos de calidad está directamente relacionado a un equipo feliz, si no que porque ese es el tipo de empresa que decidimos formar.

Apply at the original job on getonbrd.com.

Propósito del cargo

¡Únete a nuestro equipo como Ingeniero/a DevOps y lidera la transformación cloud!

Estamos buscando a alguien con experiencia para reforzar nuestro equipo, necesitamos dos personas que realicen migraciones de entornos on-premise a la nube, garantizando una transición fluida y eficiente.

Responsabilidades y habilidades

  • Planificar y ejecutar migraciones estratégicas de infraestructura y aplicaciones desde entornos on-premise a plataformas cloud.
  • Diseñar e implementar soluciones robustas de orquestación y automatización utilizando Kubernetes y OpenShift Cloud.
  • Administrar y optimizar entornos virtualizados con VMware, preparándolos para la transición a la nube.
  • Implementar y mantener prácticas de Integración Continua (CI) y Entrega Continua (CD) para agilizar los despliegues.
  • Garantizar la seguridad y el cumplimiento normativo de la infraestructura y los datos migrados en la nube, aplicando las mejores prácticas y estándares.
  • Identificar y resolver problemas técnicos complejos relacionados con la infraestructura, las migraciones y la operación en la nube.
  • Colaborar activamente con equipos de desarrollo, operaciones y seguridad para fomentar una cultura DevOps.

Requisitos mínimos

  • Experiencia mínima de 2 años o más como Ingeniero/a DevOps.
  • Experiencia trabajando con OpenShift Cloud.
  • Conocimiento avanzado y experiencia práctica con Kubernetes.
  • Experiencia en administración y operación de entornos VMware.
  • Conocimiento y experiencia práctica en plataformas cloud (AWS, Azure, GCP).
  • Experiencia con herramientas de Infraestructura como Código (IaC) como Terraform o Ansible.
  • Habilidades de scripting avanzadas (Python, Bash, Go) para automatización y resolución de problemas.

Requisitos deseables

  • Certificaciones en plataformas cloud (AWS, Azure, GCP).
  • Experiencia con metodologías ágiles (Scrum, Kanban).
  • Conocimiento de principios de DevSecOps.

Beneficios

Nos esforzamos en crear un ambiente de trabajo y una cultura que potencie a nuestro equipo. Tenemos una organización horizontal en la que hay espacio para el aporte de todos al tomar decisiones. Fomentamos una cultura abierta para tener feedback constante por parte del equipo y así mejorar cuando nos equivocamos.

Celebramos los cumpleaños y planificamos actividades de encuentro de equipo durante el año. También el equipo ha creado varios "clubes secretos" que organizan actividades por su cuenta (after office, salidas al cine, etc).

Además:

  • Seguro complementario de salud, dental y catastrófico.
  • Descuentos en farmacias y convenios con instituciones.
  • Espacios de capacitación, con acceso a cursos y material.
  • Inducciones para asumir tus responsabilidades.
  • Soporte práctico y teórico, al cual podrás acudir en cualquier momento.
  • Actividades anuales, como el aniversario y el paseíto de fin de año.

Internal talks Magnet offers space for internal talks or presentations during working hours.
Life insurance Magnet pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Magnet pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Magnet covers some computer repair expenses.
Dental insurance Magnet pays or copays dental insurance for employees.
Computer provided Magnet provides a computer for your work.
Personal coaching Magnet offers counseling or personal coaching to employees.
Shopping discounts Magnet provides some discounts or deals in certain stores.
APPLY VIA WEB View Job
Gross salary $1500 - 2000 Full time
Senior Load Tester – AWS & Integrations
  • Niuro
JavaScript Python REST API Linux
Niuro connects projects with elite tech teams to collaborate with leading U.S. companies. This role involves working on AWS-hosted systems, Aestiva-based applications, and third-party integrations, focusing on load and performance testing. The project emphasizes creating realistic load scenarios, identifying bottlenecks, and optimizing scalability and performance. The work supports continuous integration and deployment pipelines to enhance system reliability and efficiency and is tailored for diverse distributed environments.

Apply only from getonbrd.com.

About the Role:

We’re looking for a Senior Load Tester to design and execute load testing strategies for systems hosted on AWS, applications built with Aestiva framework, and various third-party integrations. Your main goal will be to simulate real-world usage through custom scripting, identify system performance bottlenecks, and ensure that applications scale reliably under stress.
Your responsibilities will include automating test executions, monitoring key system metrics such as CPU, memory, I/O, latency, and throughput, and working closely with engineering and DevOps teams. You'll integrate testing results and detailed reports into CI/CD pipelines, helping to drive continuous performance improvements and operational excellence.

Requirements:

  • Minimum 5 years of experience in performance and load testing within distributed systems environments.
  • Strong scripting skills using tools such as JMeter, Gatling, k6, along with languages like Python, Bash, or JavaScript.
  • Hands-on experience with AWS services including EC2, RDS, Load Balancers, and CloudWatch.
  • Familiarity with REST APIs, JSON, and asynchronous workflows.
  • Experience working with CI/CD tools like TeamCity, Jenkins, or GitLab CI, and monitoring platforms such as Grafana and New Relic.
  • Proven ability to analyze logs, traces, and performance metrics for diagnosis and troubleshooting.
  • Conversational English proficiency to effectively collaborate with US-based teams.

Nice to Have:

  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Experience performing security and failover testing to ensure robustness.
  • Background in regulated industries including fintech or government technology sectors.

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $4500 - 6500 Full time
Platform Engineer
  • DynWrk
Python Linux Go DevOps
DynWrk builds and operates dedicated software engineering teams in Chile for U.S. companies, attracting top talent in the Americas. We specialize in building, managing, and training tech teams for global impact.
Vivint is a leading technology company redefining the home experience, leveraging cutting-edge technology and innovative services to enable safer, smarter, and more sustainable homes for millions of users.

Exclusive offer from getonbrd.com.

Job functions

At Vivint, you will join a forward-thinking team dedicated to shaping the future of smart homes for millions of users. We seek a skilled Platform Engineer to build, maintain, and scale foundational systems for our software development lifecycle. This role focuses on creating reliable, scalable, and efficient infrastructure and tooling, enabling rapid and safe software delivery. Key responsibilities include:

  • Design, build, and maintain internal platforms, CI/CD pipelines, infrastructure-as-code (IaC), and automation tools.
  • Collaborate with DevOps, SREs, developers, and QA to enhance developer experience and streamline deployments.
  • Manage cloud infrastructure (e.g., AWS, GCP, Azure) and container orchestration systems (e.g., Kubernetes, ECS).
  • Monitor and improve system performance, reliability, and scalability.
  • Implement best practices in security, compliance, observability, and disaster recovery.
  • Write technical documentation and guide on platform tool usage.
  • Support incident response and root cause analysis for platform-related issues.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Engineering, or a related technical field.
  • 5+ years of experience in platform engineering, DevOps, or infrastructure engineering.
  • Proficiency with infrastructure-as-code tools (e.g., Terraform, Ansible).
  • Strong knowledge of CI/CD pipelines and tools (e.g., Bitbucket, Jenkins, ArgoCD).
  • Extensive experience with containerization and orchestration (e.g., Docker, Kubernetes).
  • Proven experience with major cloud services (e.g., AWS, Azure).
  • Strong programming/scripting skills in Python, Go, Bash, or similar.
  • Excellent written and verbal English communication skills.

Conditions

  • Opportunities for professional development within an international team.
  • Competitive salary.
  • Full-time position with a Chilean employment agreement (Contrato de trabajo).

APPLY VIA WEB View Job
Gross salary $1800 - 2900 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
DevOps Continuous Integration Virtualization Docker

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros. Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi. Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño. Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP). Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro. Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización. Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros.
Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi.
Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño.
Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP).
Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro.
Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización.
Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.) Conocimientos sólidos en Infraestructura como Código (IaC). Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI). Experiencia o certificación en FinOps (deseable). Manejo de contenedores y orquestadores (Docker, Kubernetes). Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.)
Conocimientos sólidos en Infraestructura como Código (IaC).
Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI).
Experiencia o certificación en FinOps (deseable).
Manejo de contenedores y orquestadores (Docker, Kubernetes).
Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

APPLY VIA WEB View Job
$$$ Full time
Ingeniero DevOps SRE (Chile Perú Colombia)
  • Adecco
Python DevOps Continuous Deployment Kubernetes
El cliente con más de 15 años dedicado a transformar el mundo a través de la tecnología mediante soluciones de Analytics, Desarrollo, Automatización y otros servicios, con presencia en España y Latinoamérica, está incorporando un Ingeniero DevOps - SRE a su equipo. Esta empresa se especializa en ofrecer soluciones tecnológicas que impulsan la innovación y la eficiencia operativa en diversas industrias, manteniéndose a la vanguardia mediante el uso de tecnologías modernas y metodologías agiles.

Apply directly from Get on Board.

Responsabilidades del cargo

  • Asegurar que los sistemas y servicios de la organización sean altamente disponibles, escalables, eficientes y confiables.
  • Desarrollar flujos de autoremediación y obtener eficiencia operativa.
  • Implementar procesos robustos de mejora continua.
  • Coordinar la respuesta frente a incidentes, incluyendo identificación, diagnóstico y resolución de problemas.
  • Gestionar el equilibrio entre el lanzamiento de nuevas características y mantener la estabilidad del sistema.
  • Fomentar la colaboración interdisciplinaria dentro del equipo y otras áreas.
  • Promover el cambio cultural hacia SRE (Site Reliability Engineering).
Herramientas y tecnologías: GitHub, Dynatrace, Draw.io, JMeter, Visual Studio, Azure Cloud, Citrix, Office.
Tecnologías clave con nivel de manejo:
  • GitHub Actions [Avanzado]
  • Dynatrace [Avanzado]
  • Arquitectura de Sistemas [Avanzado]
  • Kubernetes y Contenedores [Avanzado]
  • Programación en Python, TypeScript, otros [Intermedio]
  • Infraestructura como código (Ansible, Terraform) [Intermedio]
  • DevSecOps [Intermedio]
  • Cloud Azure [Intermedio]
  • CI/CD [Intermedio]
  • Scripting en Bash [Intermedio]
  • Git [Intermedio]

Requisitos del puesto

Buscamos un profesional con mínimo 2 años de experiencia como Ingeniero DevOps, Ingeniero DevSecOps, SRE o en roles similares. Es indispensable ser egresado de las carreras universitarias de Ingeniería de Sistemas, Ingeniería Informática o Ingeniería de Software.
Se valoran habilidades interpersonales sólidas, con enfoque en el trabajo en equipo y buen relacionamiento. Buscamos a alguien motivado por impulsar el cambio cultural hacia la filosofía SRE, que tenga compromiso con la eficiencia operativa y la mejora continua.
Entre las competencias técnicas se requieren conocimientos avanzados en manejo de herramientas y tecnologías como GitHub Actions, Dynatrace, arquitectura de sistemas, Kubernetes, y contenedores. También es relevante el uso de lenguajes de programación Python y TypeScript, infraestructura como código con Ansible y Terraform, y experiencia en DevSecOps y CI/CD, entre otros.

Competencias y habilidades valoradas

Además de los requisitos técnicos y académicos, valoramos la experiencia en ambientes híbridos y dinámicos, capacidad para coordinar respuesta a incidentes bajo presión, y compromiso con la cultura DevOps/SRE. La capacidad para colaborar interdisciplinariamente y adaptarse a procesos de mejora continua es un plus importante.
Conocimientos adicionales en automatización avanzada, monitoreo y optimización continua, así como experiencia trabajando con plataformas de nube Azure en un contexto global, también serán apreciados.

¿Qué te ofrecemos?

Contrato indefinido y planilla 100% desde el primer día.

Trabajo remoto (debes ser residente de Chile, Perú o Colombia)

Cobertura EPS 100% (Plan Esencial) y Seguro de Vida Ley.
Oportunidades de desarrollo profesional y crecimiento.
Acceso a plataforma de capacitación online gratuita.
Mediodía libre por cumpleaños.
Descuentos y convenios en educación, gimnasio y más.
Formar parte de una empresa internacional líder en consultoría y servicios TI.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $2100 - 3000 Full time
Ingeniero Soporte Cloud y DevOps
  • Agilesoft SpA
Python Linux DevOps Virtualization

Agilesoft SpA es una pequeña empresa especializada en el desarrollo de software web y móvil, apasionada por las nuevas tecnologías, la innovación y un ambiente laboral agradable. Actualmente, buscamos expandir nuestro equipo técnico con la incorporación de dos Ingenieros de Soporte especializados en Cloud, DevOps, Kubernetes y Linux, que se sumen al equipo de operaciones y soporte de infraestructuras críticas. Estos profesionales serán clave para asegurar la estabilidad, disponibilidad y escalabilidad de las plataformas que soportan nuestros proyectos, aplicando prácticas de Site Reliability Engineering (SRE) y solución avanzada de problemas técnicos.

Official source: getonbrd.com.

Funciones

  • Implementar, administrar y optimizar infraestructuras en la nube utilizando tecnologías como Kubernetes (K8S) y herramientas DevOps.
  • Proporcionar soporte avanzado en Linux para entornos productivos, incluyendo diagnóstico, troubleshooting y solución de incidentes complejos.
  • Monitorear y garantizar la disponibilidad y rendimiento de los servicios cloud, aplicando las mejores prácticas de SRE.
  • Colaborar en la automatización de procesos para mejorar la eficiencia operativa y la entrega continua.
  • Documentar procesos, soluciones y participar en mejoras continuas del ciclo de vida del software y la infraestructura.
  • Trabajar colaborativamente con equipos de desarrollo y operaciones para asegurar una integración fluida y el despliegue seguro de aplicaciones.

Perfil requerido

Buscamos dos ingenieros con experiencia intermedia a avanzada en soporte y operación de infraestructuras cloud. Deberán tener conocimientos sólidos y demostrables en Kubernetes, Linux y metodologías DevOps. Se valorará experiencia en troubleshooting avanzado, monitoreo con herramientas modernas y principios de Site Reliability Engineering (SRE).

Es imprescindible que sean profesionales proactivos, con pensamiento analítico y capacidad para resolver problemas complejos bajo presión. Deben contribuir a mejorar la estabilidad y escalabilidad de los sistemas, trabajando con mentalidad colaborativa y comunicándose claramente en equipo. Buscamos personas apasionadas por la tecnología, orientadas al aprendizaje continuo y que disfruten aportar en un ambiente dinámico y flexible.

  • Experiencia práctica en administración de Linux (preferentemente distribuciones como Ubuntu, CentOS o Debian).
  • Dominio de Kubernetes y orquestación de contenedores.
  • Manejo de herramientas DevOps y CI/CD.
  • Capacidad para identificar y resolver problemas de infraestructura y aplicaciones en producción.
  • Conocimientos de cloud pública (AWS, Azure o Google Cloud) serán un plus.
  • Habilidades para documentar y estandarizar procesos.

Habilidades y conocimientos deseables

  • Experiencia con herramientas de monitoreo como Prometheus, Grafana o similares.
  • Conocimientos en scripting (Bash, Python) para automatización.
  • Familiaridad con la implementación de políticas de seguridad en entornos cloud.
  • Experiencia en metodologías ágiles y trabajo en equipos multidisciplinarios.
  • Certificaciones relacionadas a Kubernetes, DevOps o Cloud.

Condiciones

En Agilesoft ofrecemos un ambiente laboral grato, flexible, entretenido y dinámico, ideal para desarrollarse profesionalmente mientras se disfruta del trabajo en equipo. Proporcionamos computador para el trabajo, contrato indefinido y modalidad 100% remota, permitiendo trabajar desde cualquier ubicación.

Además contamos con beneficios de caja de compensación Los Andes para Chile, seguro complementario de salud y dental para empleados chilenos, y seguro Yunen para colaboradores en República Dominicana.

Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2400 - 2600 Full time
DevOps Engineer – Proyecto 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Agile DevOps Continuous Integration Virtualization
En BC Tecnología somos una consultora de TI con amplia experiencia en diferentes áreas tecnológicas, que desde hace 6 años diseñamos soluciones acorde a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores dentro del área de infraestructura tecnológica, en equipos ágiles que combinan la experiencia en desarrollo de software y consultoría IT para entregar resultados efectivos y adaptados a cada cliente.

Find this job and more on Get on Board.

Funciones principales

  • Implementar, mantener y optimizar pipelines de CI/CD utilizando herramientas como GitLab CI, Jenkins y ArgoCD.
  • Desarrollar y administrar infraestructura como código (IaC) utilizando Terraform, Ansible, Pulumi u otras tecnologías similares.
  • Gestionar y orquestar contenedores mediante Docker y Kubernetes para garantizar despliegues eficientes y escalables.
  • Monitorear sistemas y aplicaciones mediante herramientas de observabilidad como Prometheus, Grafana y Datadog.
  • Colaborar con equipos de desarrollo y operaciones para asegurar la automatización y mejora continua de procesos.
  • Participar en la definición y control de costos operativos en nube, apoyando con modelos de FinOps para optimización financiera.

Requisitos

  • Mínimo 3 años de experiencia como DevOps o Ingeniero de Automatización.
  • Dominio en herramientas CI/CD como GitLab CI, Jenkins y ArgoCD.
  • Sólidos conocimientos en Infraestructura como Código (Terraform, Ansible, Pulumi u otras).
  • Experiencia en contenedores y orquestadores: Docker y Kubernetes.
  • Familiaridad con herramientas de observabilidad y monitoreo (Prometheus, Grafana, Datadog).
  • Conocimientos en modelos de costos y operación en la nube, preferentemente Azure, Google Cloud Platform o Oracle Cloud.
  • Deseable experiencia o certificación en FinOps para control y optimización de gastos en la nube.
  • Capacidad para trabajar en equipo, orientación al detalle, proactividad y aptitud para la resolución de problemas en entornos ágiles.

Deseable

  • Certificaciones oficiales en DevOps, Kubernetes, Terraform o plataformas Cloud.
  • Experiencia con metodologías ágiles y colaboración en equipos multidisciplinarios.
  • Conocimiento en seguridad cloud y automatización de procesos de compliance.
  • Capacidad para documentar procedimientos técnicos y capacitar equipos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
$$$ Full time
Experienced DevOps Engineer
  • coderslab.io
Redis Agile PostgreSQL Git

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This job is available on Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines de CI/CD para mejorar la entrega continua de software.
  • Administrar y optimizar entornos de contenedores y orquestación con Docker, Kubernetes y otras tecnologías.
  • Implementar prácticas robustas de monitoreo, seguridad y alta disponibilidad.
  • Gestionar infraestructura mediante Infraestructura como Código (IaC) y herramientas de automatización.
  • Documentar, estandarizar y optimizar procesos y arquitecturas DevOps.
  • Colaborar con equipos de desarrollo y operaciones para fomentar la cultura DevOps y metodologías ágiles.

Requerimientos del cargo

Experiencia

  • Más de 3 años en roles de DevOps o administración de infraestructura.
  • Más de 2 años en administración de sistemas Linux (sysadmin).
  • Experiencia en entornos ágiles como Scrum y Kanban.
  • Familiaridad con la cultura y prácticas DevOps.

Conocimientos Clave

  • Oracle WL/OSB.
  • Infraestructura como Código (IaC): Terraform, Pulumi.
  • Control de versiones y CI/CD: GIT/GitLab, ArgoCD.
  • Contenedores y orquestación: Docker, Containerd, Swarm, Kubernetes (GKE, AKS).
  • Automatización y configuración: Chef, Ansible.
  • Cloud Computing: experiencia en Azure o GCP.
  • Gestión de secretos: Vault u otras herramientas similares.
  • Monitoreo y observabilidad: Prometheus, Grafana, ELK, Datadog.
  • Redes y seguridad: protocolos, balanceo de carga, firewalls.

Conocimientos Deseables

  • API Management: Apigee, Kong.
  • Mensajería: RabbitMQ.
  • Bases de datos: Postgres, Redis, MongoDB.

¿Qué ofrecemos?

  • Trabajo en un entorno dinámico y tecnológico.
  • Oportunidades de crecimiento y aprendizaje continuo.
  • Cultura colaborativa y orientada a la innovación.
  • Flexibilidad y modalidad de trabajo a negociar.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

© Get on Board. All rights reserved.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB View Job
$$$ Full time
Cloud/DevOps Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python NoSQL DevOps Virtualization
En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas, trabajando para clientes de sectores financieros, seguros, retail y gobierno. Nuestro enfoque está en el diseño y desarrollo de soluciones, administración de portafolios y outsourcing de profesionales, siempre bajo metodologías ágiles y con un fuerte alineamiento con las necesidades de los clientes. Este proyecto en particular tiene una duración inicial de 6 meses con posibilidad de extensión, y se basa en tecnologías punteras de la nube, automatización e infraestructura como código, enfocándose en ambientes cloud modernos y escalables.

Apply exclusively at getonbrd.com.

Responsabilidades principales

  • Participar en el desarrollo, implementación y mantenimiento de infraestructura en Google Cloud Platform (GCP), utilizando herramientas como BigQuery, Cloud Run, GKE y Cloud Scheduler.
  • Automatizar procesos y gestionar infraestructura mediante Terraform, asegurando la correcta gestión de recursos y estados.
  • Configurar y mantener pipelines CI/CD en GitLab, promoviendo la integración y entrega continua de software.
  • Administrar contenedores usando Docker y orquestación con Kubernetes para asegurar despliegues consistentes y escalables.
  • Gestionar bases de datos SQL y NoSQL, así como servicios serverless para optimizar la arquitectura del proyecto.
  • Trabajar en entornos Unix/Linux, asegurando la estabilidad y buen funcionamiento de la infraestructura.
  • Documentar procesos técnicos y colaborar activamente con el equipo para proponer mejoras continuas y soluciones innovadoras.

Requisitos técnicos y perfil del candidato

Buscamos un profesional con experiencia intermedia o superior en Python, capaz de desarrollar y automatizar componentes relacionados con DevOps y Cloud. Se requiere un sólido conocimiento en GCP, incluyendo servicios esenciales como BigQuery, Cloud Run, GKE y Cloud Scheduler, para construir infraestructuras escalables y eficientes.
El manejo avanzado de Terraform es imprescindible para gestionar la infraestructura como código, incluyendo la administración de recursos y estados. Además, la familiaridad con GitLab CI/CD es necesaria para orquestar pipelines de integración y despliegue continuo.
Se valoran también competencias en Docker y Kubernetes para la gestión de contenedores, así como experiencia en bases de datos SQL y NoSQL y en la utilización de servicios serverless. Un buen dominio de sistemas operativos Unix/Linux es requerido para el correcto desempeño en el entorno de trabajo.
Desde el punto de vista de habilidades blandas, buscamos personas con pensamiento crítico, autonomía y proactividad para detectar y sugerir mejoras en procesos. La capacidad para documentar procedimientos y colaborar eficazmente en equipo es fundamental para el éxito en este rol.
Si te apasiona trabajar en entornos cloud modernos con tecnologías escalables y afrontar retos técnicos constantes, esta posición es una gran oportunidad para seguir desarrollándote profesionalmente.

Habilidades y conocimientos adicionales valorados

Se valorará experiencia previa en manejo de servicios serverless avanzados y en la implementación de soluciones completas de infraestructura como código que involucren múltiples nubes o servicios híbridos. Conocimientos en metodologías ágiles, como Scrum o Kanban, serán apreciados, junto con habilidades para proponer y ejecutar mejoras que optimicen la eficiencia operacional. La experiencia en entornos de trabajo colaborativo y multidisciplinarios también es deseable.

Beneficios y ambiente laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB View Job
$$$ Full time
DevOps
  • TIMINING
Python Go Docker Kubernetes
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

Send CV through getonbrd.com.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.
El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.
1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad
Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $2000 - 3000 Full time
DevOps Engineer Modyo
  • I2B Technologies
Linux DevOps Continuous Integration Virtualization
I2B Technologies es una empresa comprometida con impulsar la transformación digital en sus clientes, ayudándolos a mejorar la calidad de vida de los usuarios finales a través de desarrollos de alto impacto. La empresa cuenta con una amplia experiencia y metodología sólida basada en cuatro pilares fundamentales: Consultoría, Desarrollo de Software, Evolución y Data Science. Estos pilares sustentan proyectos que resuelven desafíos industriales y mejoran la experiencia entre empresas y sus usuarios.
Formar parte del equipo de I2B implica integrarse a un ámbito que no solo se ocupa de la creación y ejecución de ideas, sino también de un acompañamiento constante para asegurar el éxito y la evolución continua de los proyectos.

This offer is exclusive to getonbrd.com.

Funciones

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD) que aseguren la eficiencia y calidad en los procesos de desarrollo y despliegue.
  • Automatizar y gestionar la infraestructura usando herramientas como Terraform, Ansible u otras similares para optimizar y estandarizar los entornos.
  • Administrar entornos en la nube, priorizando plataformas como AWS, Azure o Google Cloud Platform, garantizando la disponibilidad, escalabilidad y seguridad de los mismos.
  • Supervisar el rendimiento de los sistemas, establecer monitoreos robustos y gestionar la resolución de incidentes para minimizar interrupciones y asegurar la continuidad operativa.
  • Colaborar estrechamente con los equipos de desarrollo para optimizar los despliegues, mejorar los entornos de testing y facilitar la integración entre aplicaciones y servicios.

Requisitos

Buscamos profesionales con más de 3 años de experiencia demostrable en roles de DevOps o ingeniería de infraestructura, capaces de manejar sistemas complejos y variadas tecnologías de automatización y nube.
Es imprescindible contar con experiencia en tecnologías de contenedores, particularmente Docker y Kubernetes, además de una sólida administración de servidores Linux para garantizar la estabilidad y seguridad de los servicios.
Se requiere un conocimiento profundo y práctico en herramientas y procesos de CI/CD, como Jenkins, GitLab CI o GitHub Actions, para asegurar la implementación continua en ambientes flexibles y escalables.
La experiencia con servicios en la nube es fundamental, destacando AWS, Azure o Google Cloud Platform, con habilidad para administrar y monitorear infraestructuras distribuidas e integradas.
Se valorarán certificaciones oficiales en Cloud Computing y metodologías DevOps, ya que demuestran un compromiso con la actualización constante y las mejores prácticas del área.
Además, el candidato debe poseer habilidades interpersonales para el trabajo en equipo, capacidad analítica para resolver problemas complejos y una mentalidad proactiva orientada a la mejora continua.

Deseable

Certificaciones en tecnologías cloud y DevOps, como AWS Certified Solutions Architect, Azure DevOps Engineer Expert o Certified Kubernetes Administrator, son altamente valoradas.
Experiencia adicional en herramientas complementarias de automatización y configuración como Puppet o Chef sería un plus importante.
Conocimientos en metodologías ágiles y herramientas de colaboración (JIRA, Confluence) ayudarán a integrarse fluidamente con los equipos multidisciplinarios.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Fitness subsidies I2B Technologies offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
Gross salary $3000 - 4000 Full time
Ingeniero/a DevOps
  • Devups
Agile DevOps Continuous Integration Virtualization
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

This company only accepts applications on Get on Board.

Job functions

  • Diseñar e implementar pipelines de CI/CD junto al PM asignado.
  • Colaborar con equipos de desarrollo en la automatización de pruebas y despliegues.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de infraestructuras y aplicar patrones comprobados de IaC y orquestación. Deberá tener experiencia optimizando performance y seguridad en pipelines de CI/CD, así como la capacidad para comunicar claramente retos técnicos complejos. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Herramientas CI/CD:
  • Jenkins
  • GitLab CI/CD
  • GitHub Actions
Contenedores y Orquestación:
  • Docker
  • Kubernetes
Infraestructura como Código (elige uno):
  • Terraform
  • CloudFormation

Desirable skills

  • Experiencia en AWS Services (EKS, ECS, Lambda) o Azure DevOps.
  • Monitoreo y logging con Prometheus, Grafana o ELK.
  • Conocimientos de Networking y seguridad en la nube.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
$$$ Full time
Senior Site Reliability Engineer (SRE)
  • Moventi
Python MySQL Go Kubernetes
Moventi is a forward-thinking technology company dedicated to helping organizations embrace innovation through cutting-edge technologies. We provide an environment where multidisciplinary talents collaborate to drive digital transformation and shape the future with technology. Our teams engage with state-of-the-art cloud infrastructure projects and large-scale SaaS platforms designed to scale and maximize reliability and efficiency.
Our current project focuses on designing, building, and operating highly available, scalable infrastructure on cloud platforms such as AWS EKS and Azure AKS. This includes advanced data ingestion pipelines handling hundreds of terabytes to petabytes of data, leveraging technologies like Clickhouse and Kafka. We prioritize observability, security, and automation using modern tools and practices to ensure robust SaaS operations.

Job opportunity published on getonbrd.com.

Primary Responsibilities and Role Overview

As a Senior Site Reliability Engineer (SRE), you will be instrumental in architecting, deploying, and managing complex cloud-native infrastructure in large-scale SaaS environments. Your role includes designing and maintaining Kubernetes clusters (AWS EKS, Azure AKS) using Infrastructure as Code tools such as Terraform, ensuring seamless scalability and reliability.
You will be responsible for implementing observability solutions across monitoring, logging, tracing, and metrics collection using Prometheus, Grafana, Datadog, and ELK ecosystem to maintain robust system health and performance. Managing data ingestion pipelines with high-volume technologies like Clickhouse and Kafka will be part of your core tasks.
Collaboration with cross-functional teams to drive GitOps CI/CD processes, writing automation scripts in Python, Go (Golang), and Bash to streamline deployments and operations, and enforcing security best practices involving encryption, key management, and policy enforcement are key duties. In addition, you will design and maintain disaster recovery strategies for critical components such as MySQL, Kafka, and Zookeeper, ensuring business continuity and data integrity.
This role requires active participation in a large, dynamic team environment where your expertise will elevate operational standards and foster innovation around high availability SaaS platforms.

Required Experience and Skills

We are looking for a professional with a minimum of 7 years designing, building, and maintaining SaaS environments with a strong focus on large-scale cloud infrastructure. Candidates must have at least 5 years of hands-on experience working with AWS EKS and Azure AKS managed Kubernetes clusters, leveraging Terraform for infrastructure automation.
Key technical expertise includes managing data ingestion in large environments through Clickhouse and Kafka, handling data volumes scaling up to petabytes. A solid background in observability tools such as Prometheus, Grafana, Datadog, and ELK for monitoring, logging, and tracing is mandatory.
Expertise in GitOps practices and CI/CD pipelines is essential. We expect proven scripting skills in Python, Go (Golang), Bash, and AWS CLI to automate operational workflows. Candidates must demonstrate at least 3 years of experience managing security operations including enforcing infrastructure security policies, managing encryption at rest and in transit, and key management.
In-depth knowledge of disaster recovery planning and execution for distributed systems including MySQL, Kafka, and Zookeeper is required. The ideal candidate should be a proactive and collaborative team player, able to communicate complex technical concepts effectively while taking initiative in a fast-paced innovative environment. Strong problem-solving skills, risk management, and a passion for continuous improvement are imperative to succeed in this role.

Additional Preferred Skills and Experience

Experience with service mesh technologies such as Istio and Kubernetes operators is highly valued to optimize application connectivity and lifecycle management. Familiarity with large scale data architectures and tuning Kafka clusters would be advantageous. Prior exposure to cloud security frameworks and compliance standards, as well as experience leading or mentoring SRE teams within enterprise environments, will be considered a strong plus.
An innovative mindset with eagerness to explore emerging tools and automation techniques is welcome, along with excellent interpersonal skills suitable for a multidisciplinary collaborative culture.

Our Offer and Work Environment

At Moventi, we provide a stimulating and innovative work atmosphere located in the heart of San Isidro, Lima, featuring convenient parking and recreational zones to promote wellbeing during breaks. Our hybrid work model gives you the flexibility to balance time between our fully equipped office and remote work tailored to team and personal preferences.
We prioritize professional growth by exposing you to challenging, diverse projects that foster continuous learning and skills enhancement. Our organizational culture is based on transparency, collaboration, commitment, risk-taking, and innovation. We offer formal employment contracts with full legal benefits from day one, ensuring job security and comprehensive protections.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply to this job from Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

This job offer is on Get on Board.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
Gross salary $2000 - 2200 Full time
Ingeniero DevOps y Monitoreo
  • BC Tecnología
JavaScript .Net DevOps Continuous Integration
En BC Tecnología, somos una consultora de TI especializada en ofrecer soluciones innovadoras a nuestros clientes en los sectores de servicios financieros, seguros, retail y gobierno. Con un enfoque en el cliente y la implementación de metodologías ágiles, diseñamos y desarrollamos proyectos tecnológicos que abarcan desde la consultoría hasta el apoyo en infraestructura tecnológica. En este proyecto específico, buscamos un Ingeniero DevOps y Monitoreo, quien será parte de un equipo dinámico enfocado en optimizar la administración y el monitoreo de nuestras soluciones en entornos de nube como Azure y GCP.

Apply exclusively at getonbrd.com.

Funciones del puesto

Como Ingeniero DevOps y Monitoreo, tendrás responsabilidades clave que incluyen:
  • Implantar y gestionar entornos de integración y despliegue continuo utilizando GitLab.
  • Desarrollar y mantener infraestructuras como código utilizando Terraform.
  • Colaborar en la implementación de aplicaciones en plataformas en la nube como Azure y GCP.
  • Implementar soluciones de contenedores utilizando Docker y Kubernetes para asegurar despliegues eficientes.
  • Participar en la monitorización de sistemas y aplicaciones para garantizar su disponibilidad y rendimiento óptimos.
Esperamos que puedas colaborar con nuestro equipo para ofrecer soluciones robustas y escalables a nuestros clientes.

Descripción del perfil buscado

Buscamos un profesional con al menos 4 años de experiencia en el área de DevOps, que cuente con habilidades técnicas comprobadas en:
  • GitLab para la gestión de repositorios y flujos de trabajo CI/CD.
  • Plataformas de nube como Azure y Google Cloud Platform (GCP).
  • Tecnologías de infraestructura como código, específicamente Terraform.
  • Desarrollo con .Net y JavaScript.
  • Contenerización de aplicaciones mediante Docker y gestión de orquestadores como Kubernetes.
Valoramos la capacidad para trabajar de manera remota, así como habilidades de trabajo en equipo, comunicación efectiva y una mentalidad de mejora continua.

Habilidades deseables

Sería ideal que el candidato tuviera experiencia adicional en:
  • Automatización de procesos de infraestructura y despliegue.
  • Herramientas de monitoreo y gestión de rendimiento.
  • Implementación de metodologías ágiles en proyectos de TI.
  • Participación en equipos multidisciplinarios para la solución de incidencias y mejoras.
La capacidad para adaptarse a nuevas tecnologías y un enfoque proactivo son altamente valoradas.

Beneficios de trabajar con nosotros

Ofrecemos un contrato por proyecto de 6 meses con posibilidad de extensión, acompañado de un sueldo a convenir. Nuestros empleados disfrutan de:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Nuestra ubicación en Alto Las Condes proporciona un entorno de trabajo moderno y funcional. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

APPLY VIA WEB View Job
Gross salary $1200 - 1400 Full time
Ingeniero Cloud
  • BC Tecnología
  • Lima (In-office)
Amazon Web Services Docker Microservices Jenkins
En BC Tecnología, somos una consultora de TI en constante evolución, ofreciendo servicios que incluyen la gestión de portafolios, desarrollo de proyectos y outsourcing de talento en diferentes áreas tecnológicas. Durante los últimos 6 años, hemos trabajado con clientes en servicios financieros, seguros, retail y gobierno, creando soluciones personalizadas que responden a las necesidades específicas de cada cliente. Nuestras áreas de negocio abarcan consultoría, formación de equipos de trabajo, y servicios de soporte y administración IT, siempre con un enfoque claro en el cliente y el uso de metodologías ágiles.

Applications at getonbrd.com.

✅ Requerimiento:

Estamos buscando un Especialista Cloud que cuente con al menos 2 a 3 años de experiencia en el área. Las responsabilidades incluirán:
  • -Experiencia práctica con Docker (creación, optimización de imágenes).
  • -Conocimientos avanzados de AWS (despliegue, configuración y seguridad).
  • -Experiencia en arquitectura de software (microservicios, escalabilidad, etc.).
  • -Manejo de herramientas de CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • -Habilidades de liderazgo técnico y comunicación efectiva.

✅ Condiciones:

El candidato ideal deberá tener habilidades técnicas sólidas y ser un buen comunicador. Ofrecemos un contrato por proyecto estimado a 6 meses, con trabajo presencial en nuestras oficinas en San Isidro, Perú. La disponibilidad requerida es de lunes a viernes de 9:00 am a 6:00 pm. El salario se definirá de común acuerdo, basado en la experiencia y conocimientos del candidato.

Deseable:

Sería ideal contar con conocimientos adicionales en Kubernetes, Terraform u otras plataformas de cloud computing, lo que será valorado durante el proceso de selección.

APPLY VIA WEB View Job
Gross salary $2000 - 2300 Full time
Arquitecto Cloud Presencial
  • BC Tecnología
  • Lima (In-office)
Agile Continuous Integration Virtualization Amazon Web Services
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente. Nos especializamos en administrar portafolios y desarrollar proyectos innovadores para sectores de servicios financieros, seguros, retail y gobierno. Buscamos crear equipos de trabajo ágiles para abordar desafíos complejos utilizando metodologías como Scrum y Kanban. Actualmente, estamos enfocados en la creación de soluciones de cloud computing utilizando tecnologías de vanguardia.

Official source: getonbrd.com.

Responsabilidades del Rol

Como Arquitecto Cloud, tu papel será fundamental en la creación e implementación de infraestructuras en la nube eficientes y seguras. Tus responsabilidades incluirán:
  • Diseñar arquitecturas de software utilizando microservicios y asegurar la escalabilidad.
  • Optimizar y crear imágenes Docker para diversos entornos.
  • Asegurar la configuración, seguridad y despliegue eficiente en AWS.
  • Integrar y gestionar herramientas de CI/CD como Jenkins, GitLab CI y GitHub Actions.
  • Colaborar con equipos multidisciplinarios para la implementación de soluciones en la nube.
  • Manejar herramientas como Kubernetes y Terraform para facilitar la orquestación y automatización.

Perfil Buscado

Buscamos a un profesional con al menos 2 a 3 años de experiencia en arquitecturas en la nube. El candidato ideal deberá contar con un sólido conocimiento en:
  • Docker - Creación y optimización de imágenes.
  • AWS - Despliegue, configuración y seguridad avanzada.
  • Arquitectura de software - Microservicios y escalabilidad.
  • CI/CD - Familiaridad con herramientas como Jenkins, GitLab CI, y GitHub Actions.
  • Kubernetes y Terraform son altamente valorados.
Además, es esencial poseer habilidades de trabajo en equipo, buena comunicación y la capacidad para resolver problemas de manera creativa.

Conocimientos Deseables

Si bien no son requisitos obligatorios, se valorarán habilidades adicionales en la gestión de proyectos, así como certificaciones en tecnologías de la nube que demuestren tu compromiso con la formación continua. La experiencia previa trabajando en entornos ágiles será una ventaja y permitirá integrarse de manera efectiva en nuestro equipo colaborativo.

Beneficios de Trabajar con Nosotros

Ofrecemos un entorno laboral dinámico y colaborativo, donde el crecimiento profesional es una prioridad. Nuestro modelo de trabajo híbrido te permite disfrutar de un equilibrio óptimo entre el trabajo remoto y presencial. Además, tendrás acceso a oportunidades de capacitación continua y un ambiente que fomenta la innovación.

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2800 - 3000 Full time
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

Job opportunity published on getonbrd.com.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
$$$ Full time
Senior Data Engineer
  • Moventi
Python Analytics SQL Web server
Moventi is a forward-thinking technology company dedicated to empowering organizations to lead in their industries through innovation and advanced technology solutions. Our work culture encourages transparency, teamwork, and continuous learning. We operate from a centrally located office offering modern collaborative spaces, including agile meeting tables and recreational areas, fostering a vibrant and supportive environment. The Senior Data Engineer will join a multidisciplinary team working on transformative projects in healthcare technology and software services, enabling data-driven decision making that positively impacts healthcare outcomes and technological advancements within our clients' businesses.

This job offer is on Get on Board.

Role and Responsibilities

As a Senior Data Engineer at Moventi, you will be a key player in architecting, developing, and maintaining scalable data pipelines and infrastructure. Your responsibilities will include:
  • Designing and implementing robust ETL/ELT pipelines using SQL, Python, and Airflow to process large volumes of complex data efficiently.
  • Managing and optimizing data storage and processing frameworks, particularly leveraging Snowflake's cloud data platform for high performance and scalability.
  • Collaborating closely with data scientists, analysts, and stakeholders to translate business needs into effective data solutions.
  • Developing and maintaining data visualization tools and dashboards using Tableau to provide actionable insights to business users.
  • Ensuring data quality, security, and governance best practices are implemented and monitored.
  • Mentoring junior data engineers and sharing knowledge to enhance team capabilities.
Your role is vital to transforming raw data into meaningful analytics deliverables that drive strategic business decisions and innovation within healthcare technology and software service domains.

Requirements and Qualifications

We are looking for a Senior Data Engineer with the following expertise and skills:
  • 5+ years of professional experience in data engineering or analytics engineering roles
  • Proven expertise with Snowflake (data modeling, performance optimization, security)
  • Strong proficiency in Python for data processing and automation
  • Hands-on experience with Apache Airflow for the orchestration of workflows
  • Proficiency in SQL with experience in optimizing queries and data transformations
  • Experience developing data visualizations using Tableau
  • Familiarity with healthcare technology, software services, or tech-enabled analytics platforms
  • Excellent communication skills and experience working with multidisciplinary stakeholders
  • Comfortable working autonomously and capable of delivering high-quality work independently
  • Previous exposure to remote-first work environments; adaptable and collaborative

Desirable Skills and Experience

Preferred additional skills include:
  • Experience with other cloud platforms such as AWS, Azure, or GCP.
  • Knowledge of containerization tools like Docker and orchestration platforms such as Kubernetes.
  • Familiarity with machine learning pipelines and collaboration with data science teams.
  • Understanding of healthcare data standards (e.g., HL7, FHIR) and data privacy regulations like HIPAA or GDPR.
  • Participation in open-source data engineering projects or community involvement.

Why Join Moventi?

  • Continuous opportunities for professional growth and ongoing learning within a multidisciplinary environment.
  • Flexible remote work options, enabling you to balance work and personal life effectively.
  • Participation in highly challenging projects that encourage innovation and skill development.
  • A positive and collaborative company culture based on transparency, commitment, and innovative thinking.
  • Central office location with modern facilities including parking and recreational areas, ideal for hybrid work if preferred.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

This job is published by getonbrd.com.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB View Job
Gross salary $6500 - 7500 Full time
Data Engineer / Data Architect
  • Zaelot
Python SQL Web server Big Data
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

Apply from getonbrd.com.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $1500 - 2000 Full time
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply directly on Get on Board.

Funciones del cargo

-Desarrollo de componentes en Python
-Utilización de BigQuery:Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
-Transformación de Datos:Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
-Pruebas de Precisión de Datos:Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
-Seguimiento de Cambios:Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
-Construcción de Modelos de Datos: Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
-Escritura de Código de Transformación: Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
Implementación y Documentación: Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

-Programación
-Python
-SQL: Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.-GCP
-BigQuery : Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos
-Kubernetes
-Docker

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 6 meses

APPLY VIA WEB View Job
Gross salary $3000 - 4000 Full time
Senior Data Scientist
  • Niuro
Big Data BigQuery Docker Artificial Intelligence
Niuro connects projects with elite tech teams, specializing in collaboration with leading U.S. companies. The position is part of Niuro's international team focused on delivering impactful, data-driven solutions. These projects leverage advanced industrial data science techniques such as predictive maintenance, causal modeling, time series analysis, forecasting, classification, regression, and recommender systems. Niuro empowers tech teams with continuous growth opportunities and handles all administrative tasks, enabling team members to focus on cutting-edge innovation within global client projects.

Apply to this job through Get on Board.

Responsibilities

As a Senior Data Scientist at Niuro, you will be a key contributor to diverse data science projects across various industries. Your main responsibilities include designing and implementing models for predictive maintenance, causal inference, time series forecasting, classification and regression tasks, and recommender systems. You will collaborate with cross-functional teams to develop robust solutions that generate actionable insights for global clients.
You will also be expected to apply your deep knowledge of mathematical engineering and AI to solve complex problems, mentor junior data scientists, and ensure best practices in data preparation, modeling, and deployment, primarily using technologies like Google Cloud Platform (GCP) and BigQuery.
This role requires strong communication skills to translate technical findings into business value and participate in strategic decision-making.

Requirements

We are seeking candidates with a degree in Mathematical Engineering or related fields in Artificial Intelligence. You should have extensive experience working on a variety of data science projects, including but not limited to predictive maintenance, causal modeling, time series analysis, forecasting, classification and regression, causality analysis, and recommender systems.
Proficiency in Google Cloud Platform (GCP) and BigQuery is essential for this role. Experience with cloud-based data infrastructure and scalable data processing pipelines is required.
We value candidates with a strong analytical mindset, problem-solving skills, and a collaborative approach. Ability to work fully remotely with global teams while maintaining high engagement and communication standards is important.
Bonus experience includes working in sectors such as mining, mechanical systems, or finance, where domain-specific knowledge can enhance project impact.

Preferred Qualifications

Experience with additional cloud platforms, advanced causal inference frameworks, and big data technologies is highly desirable. Familiarity with containerization and orchestration tools like Docker and Kubernetes can be a plus.
Prior work in industrial or mechanical sectors, especially mining and finance, is beneficial to understand domain-specific challenges and tailor data solutions accordingly.
Strong leadership skills and experience mentoring junior data scientists will be considered valuable.

What We Offer

We offer the opportunity to engage in technically rigorous, impactful industrial data projects fostering professional growth and innovation. Our environment promotes technical excellence and continual learning.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere around the globe.
Continuous career development is encouraged through training programs and leadership growth opportunities.
Following successful initial collaboration, there is the possibility of transitioning into a stable, long-term full-time position.
Joining Niuro means becoming part of a global tech community backed by strong administrative support that allows you to focus on delivering exceptional results.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Integrador(a) / Instructor de Automatización N8n
  • Dania Ai
Linux JSON Virtualization Docker

En Dania Ai nos dedicamos a diseñar e implementar soluciones de automatización utilizando la plataforma n8n. Nuestro equipo desarrolla workflows end-to-end que integran múltiples aplicaciones y APIs para optimizar procesos de negocio. Además, ofrecemos formación interna y para clientes a través de workshops impartidos por nuestros especialistas. Buscamos profesionales que compartan nuestra visión de optimizar operaciones mediante tecnología low-code y un enfoque metódico en la documentación y buenas prácticas.

Apply only from getonbrd.com.

Responsabilidades clave

  • Diseñar y construir workflows multi-aplicación utilizando n8n junto con REST/APIs.
  • Integrar y mantener la infraestructura básica requerida, incluyendo Docker, VPS y la instancia self-host de n8n.
  • Optimizar y depurar procesos existentes para mejorar eficiencia y confiabilidad.
  • (Opcional) Impartir workshops internos o a clientes, grabar tutoriales y mentorear a miembros junior del equipo.
  • Documentar cada solución conforme a las guías internas de Dania Ai para garantizar claridad y replicabilidad.

Requisitos indispensables

  • Experiencia mínima de 2 años trabajando con n8n o plataformas similares de automatización.
  • Dominio de JSON, webhooks y métodos de autenticación API como tokens y OAuth.
  • Conocimientos sólidos en Linux y Docker para despliegue y mantenimiento de la infraestructura.
  • Español nativo y nivel técnico de inglés suficiente para lectura de documentación y recursos técnicos.
  • Disponibilidad para dedicar entre 10 y 30 horas semanales, siguiendo el horario laboral de México (UTC-6).

Requisitos deseables

  • Fundamentos en ingeniería de software y ciclo de vida del desarrollo (SDLC).
  • Manejo de metodologías ágiles como Scrum y Kanban, y buenas prácticas en documentación técnica.
  • Conocimientos básicos de DevOps incluyendo CI/CD, Docker Compose, Kubernetes, monitoreo y alertas.
  • Conocimientos en seguridad y privacidad de datos, incluyendo ciberseguridad, cumplimiento de GDPR y controles OWASP.
  • Experiencia en testing automatizado, control de calidad y manejo robusto de errores.
  • Uso de sistemas de control de versiones con Git y flujos GitFlow.
  • Familiaridad con otras plataformas low-code o RPA como Make y Zapier.
  • Competencia en scripting con Python o JavaScript/TypeScript para tareas auxiliares.
  • Conocimientos sobre principios de inteligencia artificial generativa, procesamiento de lenguaje natural (NLP) y modelos conversacionales.

Cómo aplicar


Bandas de tarifa

Banda | Rango (USD / hora)
Intermedio | 25 – 35
Avanzado | 35 – 50

Los siguientes pasos en caso de aplicar incluyen una breve entrevista y un test técnico/docente para validar tu experiencia.

Partially remote You can work from your home some days a week.
APPLY VIA WEB View Job
Gross salary $2500 - 3000 Full time
MLOps Engineer
  • Niuro
Python Linux Sysadmin Artificial Intelligence
Niuro is a global technology company dedicated to connecting elite tech teams with leading U.S. enterprises. We focus on delivering innovative industrial data projects that drive transformation and foster innovation. By partnering with top-tier companies in the United States, we enable our teams to work on impactful challenges in a collaborative and technically rigorous environment. Our projects typically involve developing scalable, automated machine learning pipelines, leveraging cloud services, and integrating cutting-edge MLOps tools to ensure continuous delivery and operational excellence.
As part of Niuro, you will contribute to these projects with a strong emphasis on automation, reliability, and scalability of ML solutions, while benefiting from our commitment to professional growth, training, and leadership development.

Job source: getonbrd.com.

Role and Responsibilities

As a Senior MLOps Engineer at Niuro, you will be responsible for designing, implementing, and maintaining robust machine learning operations pipelines to support large-scale data and ML workflows.
  • Build and manage end-to-end ML lifecycle automation using tools like Databricks and MLflow.
  • Collaborate closely with data scientists, software engineers, and project stakeholders to streamline model deployment, monitoring, and versioning.
  • Develop and optimize batch processing pipelines on Linux environments to ensure efficient data throughput.
  • Implement best practices for CI/CD within ML workflows using Bitbucket repositories and automated testing frameworks.
  • Ensure infrastructure reliability, scalability, and security for ML production environments.
  • Troubleshoot and resolve operational issues related to ML systems and data workflows.
  • Contribute to the team's continuous improvement by sharing knowledge, mentoring juniors, and participating in architecture discussions.

Required Skills and Experience

We are looking for experienced MLOps engineers with a strong technical background in operationalizing machine learning models and workflows in production environments. The ideal candidate will have:
  • Deep hands-on experience with Databricks for big data processing and ML model management.
  • Proficiency in using MLflow for experiment tracking, model registry, and deployment pipelines.
  • Strong Python programming skills, especially for scripting automation tasks and pipeline development.
  • Experience working with Bitbucket for source code management and CI/CD integration.
  • In-depth knowledge of designing and managing batch processing systems, optimizing job scheduling and resource allocation.
  • Comfortable working in Linux environments, with solid command-line skills and system administration basics.
  • Good conversational English skills to effectively communicate with our U.S.-based teams and stakeholders.
  • Strong problem-solving skills, attention to detail, and ability to work autonomously in a remote setting.
  • Prior experience in collaborative remote teams and agile methodologies is a plus.
We value individuals who are proactive learners and continuously seek innovative solutions to complex ML operational challenges.

Preferred Qualifications


  • Experience with cloud platforms such as AWS, Azure, or GCP, especially their ML and data pipeline services.
  • Familiarity with containerization tools like Docker and orchestration frameworks such as Kubernetes.
  • Knowledge of infrastructure-as-code (IaC) tools like Terraform or CloudFormation.
  • Exposure to real-time data streaming technologies such as Kafka or AWS Kinesis.
  • Background in software engineering practices including unit testing, code reviews, and design patterns.
  • Previous experience in mentoring or leading technical teams.

What We Offer

At Niuro, we provide a fully remote work environment with a flexible schedule that allows you to work from anywhere within the LATAM region. We believe in fostering a culture of continuous learning and professional development through ongoing training programs in both technical and leadership skills.
We offer the opportunity to join projects that are technically challenging and impactful in the industrial data space, enabling you to grow your skill set and advance your career. Our supportive infrastructure handles all administrative tasks including hiring, payments, and training so you can focus entirely on your core responsibilities.
Successful collaboration on initial contracts often leads to longer-term, stable employment opportunities, reinforcing our commitment to our team members’ career paths.

APPLY VIA WEB View Job
Gross salary $3500 - 4200 Full time
Full-Stack AI & Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Django Go DevOps
Somos una empresa con 30 años en el mercado Latinoamericano dedicada al desarrollo de software y servicios TI, con especialización en tecnologías como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos. Contamos con una fábrica de desarrollo de software y prestación de servicios profesionales mediante Outsourcing, con operaciones en Concepción y Santiago. Nuestra matriz está en Concepción y trabajamos continuamente para elevar el estándar tecnológico de las empresas, acompañándolas en su camino hacia la Transformación Digital.

Applications at getonbrd.com.

Responsabilidades:

  • Liderazgo y Arquitectura en GenAI: Diseñar y entregar aplicaciones GenAI sofisticadas orientadas al usuario, aprovechando soluciones avanzadas basadas en modelos de lenguaje (LLM) para abordar necesidades complejas de clientes.
  • Desarrollo e Integración Backend: Crear servicios backend robustos con Python (FastAPI) para integrar LLMs en diversas plataformas.
  • Diseño Avanzado de Workflows: Arquitectura de flujos de trabajo dinámicos, modulares y agentivos, incluyendo técnicas de Generación Aumentada por Recuperación (RAG) con opciones de LLM como OpenAI, Gemini y Claude.
  • Especialización en Ingeniería de Prompts: Aplicar técnicas avanzadas de prompts, incluyendo patrones React y Reflex, para optimizar salidas de LLM y mejorar la interacción con usuarios.
  • Gestión de Datos y Modelos: Integrar y administrar búsquedas vectoriales y almacenes de datos híbridos (Pinecone, Elastic Search, Azure AI Search), así como implementar modelos de embeddings avanzados (text-ada-embedding y similares).
  • Despliegue y Gobernanza de IA: Orquestar despliegues en contenedores utilizando Kubernetes y Terraform; implementar controles semánticos (guardrails) con herramientas como Langsmith y Datadog para asegurar gobernanza y observabilidad.
  • Mentoría y Guía Técnica: Brindar soporte técnico, fomentar buenas prácticas y mentoría a equipos de ingeniería en flujos GenAI, asegurando calidad e innovación constante.

Requisitos Excluyentes:

  • Nivel de inglés conversacional obligatorio.
  • Dominio experto en Python; familiaridad con Go es una ventaja.
  • Experiencia amplia en frameworks web: FastAPI, Flask y Django.
  • Experiencia práctica con plataformas GenAI y LLMs como OpenAI, Gemini y Claude.
  • Conocimiento profundo y aplicación práctica de metodologías GenAI: RAG, Tree-of-Thoughts, Few-Shot Prompting y flujos de trabajo con agentes.
  • Experiencia con almacenes de datos vectoriales: Azure AI Search, AWS OpenSearch, Pinecone y Elastic Search.
  • Conocimiento y experiencia en guardrails y gobernanza IA: Semantic Router, Nemo Guardrails, Azure Semantic Routers, Langsmith.
  • Competencia en desplegar IA en al menos una plataforma cloud principal (Azure, AWS, GCP).
  • Conocimiento en librerías y frameworks: LangChain, LangGraph, NLTK, PyTorch, TensorFlow.
  • Familiaridad con DevOps y CI/CD: Kubernetes, Terraform, CircleCI y Datadog para orquestación y monitoreo.
Buscamos un profesional que combine habilidad técnica avanzada con capacidad de liderazgo e innovación, orientado a la calidad, trabajo en equipo, y la mentoría continua de sus pares.

Deseable:

Conocimientos adicionales en Go para complementar el stack de desarrollo. Experiencia previa en proyectos relacionados con inteligencia artificial aplicada y automatización de procesos. Capacidad de trabajo en entornos multidisciplinarios y manejo de metodologías ágiles de desarrollo. Habilidades de comunicación efectiva para interactuar con distintos equipos y stakeholders.

Beneficios:

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras dentro de un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.
Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
Trabajo híbrido con 3 días presenciales en Providencia o Concepción y 2 días remotos.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
APPLY VIA WEB View Job
$$$ Full time
MLOps Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

© Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job