We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
Senior Artificial Intelligence Specialist
  • Gr8tech
  • Remoto 🌎
Full Time AWS (ECS EKS Lambda S3 OpenSearch

📌 Rol: Senior Artificial Intelligence Specialist

🌎 Ubicación: Remoto (Anywhere)

💼 Tipo de Contrato: No especificado

🎓 Formación: No especificada


📋 Descripción General

GR8 Tech busca un/a Senior AI Specialist para desarrollar y operar sistemas basados en LLM en producción. El rol es hands-on y se enfoca en construir soluciones GenAI como chatbots, asistentes AI, servicios MCP y componentes integrados a una plataforma ML existente. La prioridad está en sistemas prácticos, confiables y observables que soporten automatización y workflows basados en conocimiento.


📋 Responsabilidades Principales

• Implementar y mantener features basadas en LLM.

• Construir y mejorar chatbots y sistemas conversacionales predecibles.

• Desarrollar RAG pipelines (ingestión, embeddings, retrieval, generación).

• Implementar workflows tipo agente con uso de herramientas y orquestación.

• Integrar componentes GenAI con servicios backend y APIs existentes.

• Monitorear performance, métricas de calidad y soporte en producción.

• Colaborar con Product, ML Engineering y Backend.

• Seguir estándares de código, testing y documentación.


🎯 Requisitos

• Base sólida en software engineering (clean code, testing, debugging).

• Experiencia práctica con LLMs, RAG y retrieval basado en embeddings.

• Experiencia construyendo chatbots con tool/function calling y outputs estructurados.

• Experiencia con AWS (ECS, EKS, Lambda, S3, OpenSearch, API Gateway).

• Python y SQL.

• Integración con APIs LLM (OpenAI, Anthropic, Amazon Bedrock).

• Experiencia con modelos open-source (LLaMA, Mistral, Mixtral, Qwen, Hugging Face).

• Manejo de LangChain, LangGraph, Pydantic, Langfuse.

• Experiencia con vector stores (Qdrant, FAISS, OpenSearch, pgvector).

• Docker, Git y CI/CD.

• Conocimiento en monitoreo y evaluación de sistemas AI.


🏖️ Beneficios

• Benefits Cafeteria anual (sports, medical, mental health, home office, languages).

• Licencia maternidad/paternidad + childcare allowance mensual.

• 20+ días de vacaciones + sick leave ilimitado + emergency time off.

• Remote-first + soporte tech + compensación coworking.

• Eventos de equipo y programas de crecimiento interno.

VIEW JOB APPLY VIA WEB
$$$ Part time
Product Manager
  • Atomic HR
  • Remoto 🌎
Part Time AWS APIs HRIS/Payroll Integrations LLMs Datadog

📌 Rol: Product Manager

🌎 Ubicación: 100% remoto

💼 Tipo de Contrato: Part-time

🎓 Formación: Background en Ingeniería, Computer Science, Data Science, ML o Analytics (deseable)


📋 Descripción General

Startup SaaS con base en EE.UU. busca Product Manager para liderar el desarrollo de su plataforma AI que conecta trabajadores con beneficios gubernamentales. El rol gestiona el ciclo completo de producto, asegurando soluciones escalables, accesibles y alineadas con estándares HIPAA y SOC 2. Trabajarás de forma cross-functional con equipos de ingeniería, diseño y operaciones en un entorno B2B SaaS de alto crecimiento.


📋 Responsabilidades Principales

• Definir y refinar la visión y estrategia del producto en una plataforma SaaS multi-tenant.

• Liderar discovery sessions y traducir objetivos de negocio en roadmaps accionables.

• Gestionar el ciclo completo de desarrollo (de discovery a delivery).

• Priorizar workflows complejos como verificación de ingresos, automatizaciones y pre-fill de documentos.

• Coordinar sprints bajo metodologías ágiles (scrum/kanban).

• Actuar como punto principal de contacto para stakeholders internos y externos.

• Comunicar prioridades, timelines y trade-offs considerando cumplimiento regulatorio.

• Monitorear performance y comportamiento de usuarios para optimización continua.


🎯 Requisitos

• 4+ años en Product Management para SaaS B2B/B2C.

• Experiencia desarrollando productos AI/GenAI (LLMs, automatización inteligente, procesamiento documental, interfaces conversacionales).

• Experiencia en entornos multi-tenant, API-driven o regulados.

• Conocimiento de métricas y evaluación de features AI (accuracy, latency, costo, confiabilidad).

• Experiencia trabajando con equipos de ingeniería y datos en integración de APIs y servicios AI.

• Conocimiento de arquitecturas cloud (AWS), APIs e integraciones (HRIS, payroll).

• Experiencia en metodologías ágiles.

• Experiencia en startups en etapa de crecimiento (deseable).


🏖️ Beneficios

• Trabajo 100% remoto con horarios flexibles y modalidad async.

• Tarifa competitiva en USD según experiencia.

• Equipo colaborativo con foco en innovación e impacto social.

• Oportunidad de crecimiento en empresa SaaS en expansión.

VIEW JOB APPLY VIA WEB
$$$ Full time
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

This posting is original from the Get on Board platform.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2300 Full time
DevOps
  • Izytech
.Net DevOps Virtualization Amazon Web Services
En Izytech estamos buscando un/a Ingeniero/a Cloud y DevOps para colaborar en el desarrollo y despliegue continuo de aplicaciones robustas en C# .NET y .NET Core. El rol operará en entornos cloud e híbridos, con responsabilidades de optimización de infraestructura, supervisión de rendimiento y automatización de procesos. Trabajará en un entorno proactivo y colaborativo, enfocándose en mejoras técnicas, automatización y buenas prácticas DevOps, con énfasis en la estabilidad operativa y la observabilidad para reducir tiempos de reparación y garantizar la continuidad del negocio.

Apply to this job from Get on Board.

Funciones principales

  • Colaborar en el desarrollo y despliegue continuo de aplicaciones en C# .NET y .NET Core.
  • Administrar servidores Windows Server e IIS, asegurando estabilidad, rendimiento y correcta configuración de aplicaciones productivas.
  • Gestionar y optimizar bases de datos SQL (RDS y/o on-premise): análisis de consultas, mejoras de rendimiento, índices y monitoreo.
  • Supervisar el rendimiento de instancias EC2, identificar cuellos de botella y optimizar recursos para la continuidad operativa.
  • Implementar y mantener estrategias de monitoreo, logging y observabilidad; analizar logs y métricas para detección temprana de incidentes.
  • Configurar y administrar Prometheus y Grafana, creando dashboards y alertas proactivas para reducir MTTR.
  • Crear, administrar y optimizar funciones serverless en AWS Lambda, integradas con API Gateway, S3 y RDS.
  • Trabajar en la integración de AWS Step Functions para orquestación y automatización de procesos internos.
  • Apoyar integraciones y soluciones basadas en AWS Bedrock, colaborando en el desarrollo de capacidades inteligentes y automatizadas.
  • Gestionar IAM Roles y políticas, aplicando mínimo privilegio y buenas prácticas de seguridad.
  • Administrar almacenamiento y flujos de información con Amazon S3.
  • Participar en la configuración y mantenimiento de conectividad segura mediante VPN entre entornos on-premise y la nube.
  • Fomentar un ambiente de trabajo colaborativo, promoviendo mejoras técnicas, automatización y buenas prácticas DevOps.

Descripción

Buscamos un profesional con experiencia en entornos AWS y en la gestión de infraestructuras modernas para apoyar el desarrollo y operación de soluciones en la nube. El/la candidato/a ideal debe combinar habilidades técnicas en .NET, DevOps y administración de sistemas con una actitud proactiva y orientada a resultados. Requerimos capacidad para trabajar en entornos híbridos, gestionar rendimiento y costos, y colaborar estrechamente con equipos de desarrollo para entregar software estable, seguro y escalable.

Requisitos deseables

Se valorarán certificaciones en AWS (Solutions Architect, DevOps Engineer) y experiencia previa con Bedrock u otros servicios de IA en AWS. Fuerte comprensión de seguridad en la nube, experiencia en automatización (CI/CD), containers (Docker/Kubernetes) y scripting (PowerShell, Bash). Capacidad de comunicación en español e inglés técnico, y habilidades de trabajo en equipo en un entorno dinámico.

Beneficios

En Izytech ofrecemos un entorno laboral favorable con varias ventajas: horarios de oficina que respetan la vida personal, acceso a formación continua y un ambiente colaborativo. Ofrecemos un contrato a plazo indefinido basado en logros y excelentes condiciones de conectividad y transporte. También promovemos la flexibilidad para gestionar permisos y tareas personales. ¡Únete a nuestro equipo y crece con nosotros!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Izytech pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Dynamic Devs
  • Santiago (Hybrid)
JavaScript Java Python PHP

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente.

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 Buscamos DevOps Engineer para formar parte de nuestro #DynamicTeam🚀

This job offer is on Get on Board.

Funciones del cargo

  • Colaborar con equipos de desarrollo y operaciones para implementar, gestionar y optimizar pipelines de CI/CD usando AzureDevops y GitHub Actions.
  • Gestionar la infraestructura en la nube, configurando y administrando clusters Kubernetes y utilizando servicios de AWS como EKS, Lambda, API Gateway, CloudFront, EC2, S3 y Dynamo DB para asegurar la escalabilidad y alta disponibilidad de las aplicaciones.
  • Automatizar la infraestructura y despliegue en la nube utilizando Terraform, Serverless framework y SAM AWS.
  • Monitorear y optimizar el rendimiento de sistemas y aplicaciones utilizando herramientas de observabilidad como Prometheus, Grafana o Datadog, y resolver problemas proactivamente.
  • Documentar procesos, soluciones y buenas prácticas para facilitar la colaboración dentro del equipo y entre áreas técnicas y no técnicas.
  • Fomentar la mejora continua en la infraestructura y procesos, aplicando metodologías ágiles para asegurar entregas rápidas y seguras.
  • Apoyar al equipo en la creación de soluciones automatizadas que permitan la eficiencia en el desarrollo y operaciones.

Requerimientos del cargo

  • 3 años de experiencia como DevOps Engineer o en un rol similar.
  • Experiencia avanzada en AzureDevops, GitHub Actions y GIT.
  • Conocimiento avanzado de CI/CD y experiencia en la implementación y optimización de pipelines.
  • Experiencia gestionando y configurando Kubernetes y servicios de AWS como EKS, Lambda, API Gateway, CloudFront, EC2, S3 y Dynamo DB.
  • Experiencia con Terraform, Serverless framework, SAM AWS para la automatización de infraestructuras en la nube.
  • Conocimientos en lenguajes de programación como JS, Java, Python y/o PHP.
  • Habilidades en monitoreo y solución de problemas utilizando herramientas de observabilidad como Prometheus, Grafana, o Datadog.
  • Excelentes habilidades de comunicación y colaboración en entornos multifuncionales.
  • Experiencia trabajando en entornos ágiles.

Opcionales

  • Conocimiento y experiencia con Docker y Kubernetes en entornos empresariales.
  • Certificaciones en AWS, Azure o Google Cloud.
  • Familiaridad con Jenkins, CircleCI, u otras herramientas CI/CD.
  • Experiencia en prácticas de Site Reliability Engineering (SRE).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Health coverage Dynamic Devs pays or copays health insurance for employees.
VIEW JOB APPLY VIA WEB
Gross salary $1200 - 1500 Full time
Analista Cloud de Infraestructura
  • ATENTUS
  • Santiago (Hybrid)
Virtualization Amazon Web Services Cloud Computing Cloud

Atentus es líder en soluciones de transformación digital, especializado en observabilidad, procesos automatizados y monitoreo de la experiencia del usuario. Facilitamos una transición a la era digital al ofrecer estrategias personalizadas que mejoran la visibilidad en todas las plataformas digitales. Nuestro compromiso con la excelencia se refleja en nuestro enfoque holístico, donde no solo automatizamos procesos para ahorrar costos y tiempo, sino que también priorizamos la experiencia del usuario, asegurando información en tiempo real sobre la calidad de los canales digitales.

Apply to this job opportunity at getonbrd.com.

Principales responsabildades del cargo

  • Diseñar, implementar y mantener infraestructuras de red y sistemas que soporten entornos híbridos y en la nube (AWS).
  • Gestionar conectividad, VPNs, firewalls y segmentación de redes para garantizar seguridad y rendimiento.
  • Monitorear, analizar y responder a incidentes de infraestructura, asegurando alta disponibilidad y recuperación ante desastres.
  • Colaborar con equipos de DevOps, seguridad y soporte para automatizar procesos y despliegues.
  • Optimizar el rendimiento de la red y servicios, gestionando actualizaciones y parches sin interrupciones significativas.
  • Documentar arquitecturas, procedimientos operativos y guías de resolución de incidentes.

Descripción

  • Buscamos un Ingeniero de Infraestructura con experiencia en redes, AWS, Mikrotik y VPN, capaz de gestionar múltiples herramientas de forma remota.
  • Certificaciones en redes (CCNA/CCNP) o en AWS (CAA/SAA/SysOps).
  • Experiencia con Mikrotik, VPNs site-to-site y soluciones de monitoreo de infraestructura.
  • Conocimiento de herramientas de automatización y scripting para despliegues y mantenimiento.
  • Capacidad de trabajo en entornos multiculturales y de alta demanda.

Requisitos deseables

  • Capacidad para operar en un entorno global, con conocimiento de buenas prácticas de redes, seguridad y confiabilidad de sistemas.
  • Competencias técnicas y analíticas para identificar cuellos de botella, planificar mejoras y ejecutar cambios de forma segura.
  • Habilidades de comunicación para coordinar con equipos distribuidos y documentar soluciones de manera clara.
  • Experiencia previa en entornos 24/7, gestión de incidentes y respuesta ante fallos, con enfoque en continuidad operativa.

Beneficios

👨🏻‍🏫 Capacitaciones y desarrollo constantes.

🧡 Tiempo libre y equilibrio, podrás disfrutar de 5 días libres al año, adicionales a tus vacaciones legales, 1 día libre durante el mes de tu cumpleaños, 1 día libre por cambio de casa y mucho más!

🧑🏻‍⚕️ Seguro complementario 100% gratuito para ti una vez que pases a contrato indefinido.

🧘🏻‍♀️ Suscripción gratuita a la app Puramente, enfocada en llevar tu bienestar a otro nivel.

Wellness program ATENTUS offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Meals provided ATENTUS provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ATENTUS pays or copays health insurance for employees.
Commuting stipend ATENTUS offers a stipend to cover some commuting costs.
Computer provided ATENTUS provides a computer for your work.
Fitness subsidies ATENTUS offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation over legal ATENTUS gives you paid vacations over the legal minimum.
Beverages and snacks ATENTUS offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal ATENTUS offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer Junior
  • Healthatom
  • Santiago (Hybrid)
JavaScript Python Linux DevOps
En Healthatom estamos revolucionando la industria de la salud, usando la tecnología como una herramienta poderosa. Nuestro objetivo es facilitar la gestión diaria de clínicas, consultas y centros médicos a través de soluciones en la nube.
El/la DevOps Engineer Junior formará parte del equipo de infraestructura y coloborará estrechamente con desarrollo, seguridad y operaciones para garantizar la escalabilidad, confiabilidad y eficiencia de nuestras plataformas.
El rol se enfoca en apoyar la administración de la infraestructura en la nube (AWS), diseñar e implementar pipelines CI/CD, y contribuir a la automatización de procesos para mejorar la entrega de software y la observabilidad de sistemas en producción.
Buscamos a alguien con ganas de aprender, colaborar y crecer dentro de una empresa en crecimiento con presencia en más de 20 países y más de 14 mil clientes.

Apply exclusively at getonbrd.com.

¿Qué harás?

  • Apoyar en la administración y mantención de la infraestructura en la nube (AWS) bajo supervisión, asegurando disponibilidad y rendimiento.
  • Colaborar en el diseño, desarrollo y mantenimiento de scripts y procesos de automatización para acelerar despliegues y reducir errores.
  • Contribuir a la elaboración y mantención de pipelines de CI/CD (integración y entrega continua) para proyectos de software y servicios.
  • Programar soluciones básicas en scripting (Python, Bash, JavaScript) para tareas de automatización y tooling interno.
  • Apoyar en tareas de administración de bases de datos y en la ejecución de tareas de respaldo, recuperación y optimización bajo supervisión.
  • Participar en despliegues a producción siguiendo procedimientos establecidos y buenas prácticas de implementación.
  • Colaborar en la implementación de infraestructura como código (IaC).
  • Participar en testing, revisión de código y creación de pull requests.
  • Contribuir al seguimiento de directrices de seguridad de la información y cumplimiento normativo (compliance).
  • Monitorear servicios, aplicar mejoras y escalar incidencias cuando sea necesario.

¿Qué buscamos?

• Conocimientos básicos de infraestructura en la nube (AWS, GCP o Azure).
• Familiaridad con tecnologías de automatización y scripting.
• Conocimientos básicos de Python y/o Javascript.
• Comprensión de conceptos fundamentales de DevOps y CI/CD.
• Conocimiento básico de Linux y línea de comandos.
• Actitud proactiva para aprender nuevas tecnologías y herramientas.

Deseable (no excluyente)

• Conocimiento básico de Bash scripting.
• Familiaridad con contenedores (Docker) y orquestación básica.
• Conocimiento de Git y control de versiones.
• Experiencia académica con bases de datos (SQL y/o NoSQL).
• Comprensión básica de buenas prácticas de seguridad en DevOps.
• Conocimiento de herramientas de IA con buenas prácticas para acelerar desarrollo y documentación.

¿Qué tenemos para ti?

  • Aguinaldos, regalos por años de servicio, por la llegada de tu hijo/a, y en Navidad para tus pequeñ@s.
  • Queremos celebrar tus logros y momentos especiales contigo.
  • Días extra de vacaciones, para que recargues energías y aproveches al máximo tus momentos de descanso.
  • Porque sabemos que hay que celebrar la vida en grande, disfruta de tu cumpleaños con un merecido día libre.
  • Tendrás la posibilidad de trabajar de forma remota.
  • Para nuestros/as Healthatomers en Chile, ofrecemos un seguro complementario de salud

Partially remote You can work from your home some days a week.
Health coverage Healthatom pays or copays health insurance for employees.
Dental insurance Healthatom pays or copays dental insurance for employees.
Computer provided Healthatom provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Healthatom offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3200 Full time
Product Engineer DevOps
  • Ria Money Transfer
  • Santiago (Hybrid)
Python Linux DevOps Continuous Integration

Ria Money Transfer, a business segment of Euronet Worldwide, Inc. (NASDAQ: EEFT), delivers innovative financial services including fast, secure, and affordable global money transfers to millions of customers along with currency exchange, mobile top-up, bill payment and check cashing services, offering a reliable omnichannel experience. With over 600,000 locations in nearly 200 countries and territories, our purpose remains to open ways for a better everyday life.

We are looking for a Product Engineer focused on CI/CD, Delivery Acceleration, and AI-Augmented Engineering Workflows to improve how fast, safely, and reliably our digital products reach customers. You will integrate AI-powered tooling across the delivery lifecycle — from code authoring and review through testing, deployment, and observability — while maintaining the quality and compliance standards required in financial services.

© Get on Board. All rights reserved.

Roles & Responsibilities

  • Design, implement, and optimize CI/CD pipelines to reduce build times, increase deployment frequency, and improve release reliability across mobile and web platforms.
  • Build and maintain infrastructure-as-code for automated testing, staging, and production environments.
  • Improve environment consistency and deployment automation, including configuration, secrets management, and release orchestration.
  • Standardize CI/CD patterns across squads while allowing flexibility for product-specific needs.
  • Evaluate and integrate AI-assisted development tools (e.g., GitHub Copilot, Cursor, CodeWhisperer) across engineering teams, ensuring responsible usage aligned with security and compliance policies.
  • Implement AI-powered code review and security scanning tools (e.g., CodeRabbit, Snyk AI, SonarQube AI) into PR workflows to catch vulnerabilities and quality issues before code enters the pipeline.
  • Introduce AI-driven test optimization tools (e.g., Diffblue, Launchable, Qodo) to auto-generate test cases and intelligently prioritize test execution based on code change impact.
  • Leverage AI-powered observability platforms (e.g., PagerDuty AIOps, Datadog AI) for faster anomaly detection and reduced mean time to recovery (MTTR).
  • Explore and prototype LLM-based automation for build failure triage, release note generation, and intelligent rollback recommendations.
  • Establish delivery performance dashboards (DORA metrics: deployment frequency, lead time, change failure rate, MTTR).
  • Enable progressive delivery strategies such as feature flags, staged rollouts, and trunk-based development.
  • Develop self-service tooling and templates that empower teams to deploy safely with minimal manual intervention.
  • Collaborate with QA and UAT stakeholders to embed automated testing into pipelines.
  • Document delivery workflows, best practices, and AI tooling guidance for engineering teams

Position Requirements

  • 1+ years of experience in software engineering, platform engineering, or DevOps roles.
  • Experience designing and maintaining CI/CD pipelines using tools such as GitHub Actions, GitLab CI, Jenkins, CircleCI, or similar.
  • Familiarity with containerization technologies (Docker, Kubernetes).
  • Familiarity with at least one major cloud platform (AWS, GCP, or Azure).
  • Experience with infrastructure-as-code tools such as Terraform, Pulumi, or CloudFormation.
  • Scripting skills (Bash, Python, or similar) to automate workflows and tooling.
  • Understanding of testing strategies (unit, integration, end-to-end) and how they integrate into automated pipelines.
  • Familiarity with AI-assisted development tools and an interest in embedding them responsibly into engineering workflows.
  • Strong communication skills and ability to work across product, engineering, QA, and operations teams.

Nice to have

  • Experience with feature flag platforms (PostHog, Split, LaunchDarkly).
  • Familiarity with GitOps workflows (ArgoCD, Flux).
  • Experience with observability platforms, especially those with AI-driven anomaly detection.
  • Background supporting mobile CI/CD pipelines (iOS/Android).
  • Experience building or integrating LLM-based agents into developer toolchains.
  • Familiarity with prompt engineering or RAG patterns for internal developer productivity tooling.
  • Experience in regulated or financial services environments.

Benefits

  • 💰 Annual Salary Review
  • 🎄 Year-End Bonus
  • 📈 15% Off EEFT Stock
  • 🥳 Birthday Day Off
  • 🩻 Health, Cancer, Dental & Life Insurance
  • 💸 Free Money Transfers with Ria
  • 🏋️‍♂️ SmartFit Gym Partnership

Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Ria Money Transfer pays or copays health insurance for employees.
Computer provided Ria Money Transfer provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Ria Money Transfer offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2500 Full time
Back-end & Infrastructure Engineer
  • Vibepeak.AI
JavaScript PostgreSQL REST API Node.js

We are a small, fast-moving team where every engineer has a direct impact on the product and the business. We ship weekly, iterate based on real customer feedback, and build with modern tools that let us move fast without sacrificing quality.

How We Work

  • Biweekly sprints with clear objectives
  • Code reviews on every PR
  • Pair programming for complex problems
  • Async communication by default (Slack, GitHub)
  • Weekly sync with the CTO to align priorities
  • Freedom to propose and drive technical improvements

© Get on Board. All rights reserved.

Funciones del cargo

Buscamos un/a Backend & Infrastructure Engineer para liderar tres áreas críticas de la plataforma: la API pública, las integraciones con CRMs y la infraestructura cloud. Será responsable de la API REST usada por desarrolladores y partners para generar vídeos de forma programática, diseñando nuevos endpoints, gestionando autenticación, rate limiting, webhooks, monitorización y documentación, así como mejorando la experiencia de desarrollador.

También desarrollará integraciones con CRMs inmobiliarios y otras plataformas externas, creando pipelines de sincronización de datos, arquitecturas orientadas a eventos, gestión de OAuth y claves API, y coordinándose con el equipo de negocio para priorizar alianzas.

En infraestructura, gestionará y optimizará entornos en Google Cloud y AWS, garantizando fiabilidad, escalabilidad y eficiencia de costes. Esto incluye servicios como Cloud Run, Pub/Sub, S3 o Lambda, además de CI/CD, despliegues automatizados, monitorización, alertas y seguridad en todos los entornos. Administrará contenedores Docker, configuraciones y variables de entorno.

No es un rol de soporte: diseñará sistemas, tomará decisiones arquitectónicas y desarrollará funcionalidades end-to-end, trabajando directamente con el CTO y teniendo un impacto clave en la evolución técnica del producto.

Requerimientos del cargo

What We Are Looking For

Must Have

  • 3+ years of professional experience building and operating backend services
  • Strong TypeScript / Node.js skills in production environments
  • Hands-on experience with Google Cloud Platform (Cloud Run, Cloud Tasks, or similar)
  • Experience designing and maintaining REST APIs consumed by external developers
  • Solid understanding of API design principles: versioning, error handling, pagination, authentication
  • Experience with PostgreSQL (or similar relational databases) in production
  • Familiarity with Docker and container-based deployments
  • Experience with CI/CD pipelines and deployment automation
  • Ability to work autonomously, make decisions, and communicate clearly

What We Value

  • Ownership over tasks. You take a feature from idea to production and monitor it after release.
  • Pragmatism over perfection. Ship the right solution for today, not an over-engineered abstraction for hypothetical tomorrow.
  • Clear communication. Async-first team. Write clear PRs, document decisions, flag blockers early.
  • Curiosity about the product. Understand why we build what we build, not just how.

Opcionales

Nice to Have

  • Experience with AWS services (S3, Lambda)
  • Experience building third-party integrations (CRMs, webhooks, OAuth)
  • Knowledge of queue-based architectures (Pub/Sub, Cloud Tasks, SQS)
  • Experience with Infrastructure-as-Code (Terraform, Pulumi, or GCP Deployment Manager)
  • Familiarity with observability tools (Sentry, Grafana, Prometheus)
  • Experience with OpenAPI specifications and API documentation tools
  • Background in real estate tech or PropTech
  • Experience in early-stage startups (< 15 people)

Condiciones

Remote-first: Work from anywhere in Spain. Core collaboration hours 10:00 - 15:00 CET.
Autonomy: Direct access to the CTO. No layers of management. Your voice matters from day one.
Growth: Early-stage opportunity. Shape the product, the architecture, and the engineering culture.
Hardware: We provide the equipment you need to do your best work.

AI-first workflow: We actively use AI tools (Claude, Cursor, Copilot) in our daily development. You will too.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Vibepeak.AI gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a Cloud e Infraestructura
  • BICE VIDA
  • Santiago (In-office)
Linux Virtualization Amazon Web Services Azure
En BICE VIDA somos líderes en el rubro de las aseguradoras y queremos satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos apostando por la transformación digital, buscando nuevas formas de realizar el negocio, para mantenernos vigente y responder a los constantes cambios que el entorno nos exige.
¡Únete a un equipo apasionado y altamente motivado por brindar soluciones innovadoras a sus clientes!
“Esta oferta se enmarca en la ley 21.015 que incentiva la inclusión laboral de personas en situación de discapacidad. Aquellos interesados, contarán con el apoyo de la Compañía para realizar un proceso inclusivo y en igualdad de condiciones. BICE Vida se compromete a resguardar la información que postulantes en situación de discapacidad proporcionen de manera voluntaria”.

Job opportunity on getonbrd.com.

¿Qué Buscamos? 👀

En BICE Vida, queremos incorporar a nuestro equipo de Tecnología a un/a Ingeniero/a Cloud e Infraestructura, quien cumplirá un rol estratégico en el diseño, implementación y operación de nuestras plataformas Cloud y entornos tecnológicos.
Su principal desafío será garantizar la estabilidad, disponibilidad, seguridad y rendimiento de los ambientes productivos, impulsando iniciativas de mejora continua, automatización y optimización de recursos, contribuyendo directamente a la continuidad y evolución del negocio.
Si te motivan los entornos Cloud, la excelencia operativa y los desafíos tecnológicos de alto impacto, ¡queremos conocerte!
Principales funciones del rol:
  • Diseñar, implementar y operar plataformas Cloud e Infraestructura, asegurando la continuidad operativa de los servicios tecnológicos.
  • Gestionar y resolver incidentes, requerimientos y pasos a producción, cumpliendo los SLA establecidos.
  • Supervisar sistemas de monitoreo, gestionando alertas y mitigando incidentes de forma oportuna.
  • Ejecutar y controlar despliegues en ambientes productivos.
  • Administrar plataformas de respaldo y recuperación, garantizando la integridad y disponibilidad de la información.
  • Realizar chequeos preventivos y revisiones periódicas de servicios críticos.
  • Elaborar y mantener documentación técnica y operativa actualizada.
  • Participar en procesos de auditoría, proporcionando información técnica y evidencias dentro de los plazos requeridos.
  • Coordinarse con áreas internas como Desarrollo, Seguridad y Operaciones TI, además de proveedores externos.
  • Optimizar el uso de recursos Cloud, promoviendo eficiencia y control de costos.
  • Automatizar procesos operativos y de despliegue.
  • Promover buenas prácticas Cloud orientadas a la seguridad, escalabilidad y resiliencia de las plataformas.

¿Qué necesitamos? 😎

Formación:
  • Ingeniería en Sistemas, Informática o carrera afín (titulado/a).
Experiencia:
  • Al menos 2 años en roles de operación, soporte o administración de plataformas TI.
  • Experiencia en administración de entornos productivos.
  • Participación en procesos de gestión de incidentes, problemas y cambios (idealmente en marcos tipo ITIL o CAB).
  • Experiencia en sistemas operativos Linux y Windows Server.
  • Experiencia en virtualización (VMware, KVM, Nutanix).
  • Experiencia en monitoreo de plataformas y gestión de respaldos.
  • Experiencia en entornos Cloud (AWS, Azure o híbridos) será altamente valorada.

Sumarás puntos si cuentas con:

  • Certificaciones en Cloud (AWS, Azure).
  • Certificaciones en Linux, Windows Server o virtualización.
  • Conocimientos en automatización y scripting (PowerShell, Bash, Terraform u otros).

¿Cómo es trabajar en BICE Vida 🤔?

🏥 Seguro complementario de salud, dental y de vida, más seguro catastrófico (para ti y tus cargas legales).
🎁 Bonos en UF según la época del año y tu antigüedad en la compañía.
⏰ Salida anticipada los viernes a las 14:00 hrs para ayudarte a equilibrar tu vida laboral y personal.
👟 Dress code semi-formal, priorizamos la comodidad.
🍽️ Almuerzo gratuito en el casino corporativo (sí, también hay día “no-fit” 😄).
📚 Capacitaciones constantes para impulsar tu desarrollo profesional.
📍 Casa Matriz ubicada en Providencia, cercana a estación de Metro Pedro de Valdivia.
🚲 Bicicleteros disponibles para que vengas en bici sin preocupaciones.

Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
Education stipend BICE VIDA covers some educational expenses related to the position.
VIEW JOB APPLY VIA WEB
Gross salary $3600 - 4300 Full time
Ingeniero DevOps Senior
  • Checkr
  • Santiago (In-office)
Linux DevOps Virtualization Amazon Web Services
Checkr está creando una plataforma de datos para facilitar la toma de decisiones seguras y justas. Fundada en 2014, la tecnología innovadora y la sólida plataforma de datos de Checkr ayudan a los clientes a evaluar riesgos y garantizar seguridad y cumplimiento normativo para crear lugares de trabajo y comunidades de confianza. Checkr cuenta con más de 100.000 clientes, entre los que se incluyen DoorDash, Coinbase, Lyft, Instacart y Airtable. Como Senior DevOps, trabajarás en estrecha colaboración con nuestros equipos de plataforma para crear y ejecutar los componentes que impulsan Checkr. Permitirás que todos los equipos asuman responsabilidad colectiva de la confiabilidad, escalabilidad y rendimiento de su software. También guiarás a otros equipos en el ajuste de sus servicios, lo que se traducirá en una mayor solidez y eficiencia, garantizando que cada equipo pueda centrarse en crear un software superior respaldado por una infraestructura confiable, escalable y eficiente

Originally published on getonbrd.com.

Responsabilidades del cargo

  • Crear, mantener, optimizar y ampliar la infraestructura en la nube y local de Checkr.
  • Mejorar las operaciones y los procesos de infraestructura mediante la automatización y el uso de herramientas.
  • Optimizar los procesos de CI/CD y las herramientas de DevOps.
  • Depurar problemas de producción en todos los servicios y niveles de la pila.
  • Garantizar la escalabilidad y la seguridad de la infraestructura de Checkr.
  • Colaborar con los desarrolladores de aplicaciones para garantizar las mejores prácticas y el uso eficiente de la infraestructura.
  • Crear y fomentar relaciones de colaboración con otros equipos de ingeniería y líderes.
  • Planificar el crecimiento de la infraestructura de Checkr

Calificaciones y Requisitos del cargo

  • Licenciatura en Informática (o campo relacionado)
  • Más de 5 años de experiencia como ingeniero de DevOps o experiencia relacionada
  • Experiencia en el diseño de arquitectura técnica y la creación de una hoja de ruta estratégica para hacer realidad una visión técnica
  • Experiencia con Linux, Kubernetes, Terraform y AWS o Azure
  • Experiencia con contenedores y orquestación de contenedores
  • Conocimientos avanzados de TCP/IP, seguridad de aplicaciones web y HTTP/HTTPS
  • Tus planes de reversión son tan meticulosos como tus planes de implementación.
  • Experiencia en impulsar la adopción de plataformas con diversos equipos de ingeniería de productos, guiado por un enfoque de autoservicio y prioridad del producto.
  • Capacidad, disposición y deseo de orientar y mejorar a ingenieros de infraestructura con menos experiencia.
  • Pasión por la orientación al cliente y el establecimiento de relaciones con otros equipos.
  • Compromiso inquebrantable con la seguridad operativa y las mejores prácticas.

Consideración

Favor considerar que el momento de enviar tu postulación, es necesario adjuntar tu cv actualizado en Inglés.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr
Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
SRE / DevOps Engineer
  • BC Tecnología
Python Linux DevOps Virtualization
BC Tecnología es una consultora de TI enfocada en Servicios IT, con experiencia en administrar portafolios, desarrollar proyectos, realizar outsourcing y selección de profesionales para equipos ágiles en Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio. Trabajamos con clientes de servicios financieros, seguros, retail y gobierno, promoviendo un enfoque centrado en el cliente, metodologías ágiles y desarrollo de productos. Buscamos integrar a nuestro equipo a un/a SRE/DevOps Junior para apoyar en la implementación, automatización y operación de infraestructuras críticas para servicios digitales, asegurando disponibilidad, estabilidad y observabilidad.
En BC Tecnología participarás en proyectos innovadores con clientes de alto nivel, colaborando con equipos de Desarrollo y Arquitectura para impulsar infraestructura como código, despliegue continuo y soporte a plataformas productivas en un entorno de crecimiento y aprendizaje profesional.

Apply only from getonbrd.com.

Funciones

  • Implementación de Infraestructura como Código (IaC) con Terraform para entornos de desarrollo, pruebas y producción.
  • Automatización de entornos y despliegues para acelerar entregas y mejorar la consistencia entre entornos.
  • Operación de servicios en la nube (ideal AWS) y optimización de costos y rendimiento.
  • Soporte en monitoreo, alertamiento e incidentes (RCA) para garantizar disponibilidad y respuesta oportuna.
  • Mantenimiento de pipelines CI/CD y documentación técnica para equipos de desarrollo y operaciones.

Requisitos

• 1 a 3 años en roles SRE o DevOps.
• Nube (AWS / GCP / Azure) – Nivel intermedio.
• Terraform – Nivel intermedio.
• Docker y Linux – Nivel intermedio.
• CI/CD y automatización (Bash o Python).
• Conocimientos en observabilidad y resolución de problemas en producción.

Desirable

• Experiencia en entornos de alta disponibilidad y resiliencia.
• Conocimientos en herramientas de monitoreo (Prometheus, Grafana, CloudWatch) y logging (ELK/EFK).
• Certificaciones en AWS/GCP/Azure o en DevOps (upskilling continuo).

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2200 Full time
SRE / DevOps Engineer Junior
  • BC Tecnología
Python Linux DevOps Virtualization
BC Tecnología es una consultora de TI con personal experto en diversas áreas tecnológicas. Administramos portafolio, desarrollamos proyectos, realizamos outsourcing y selección de profesionales. Creamos equipos ágiles para Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio, en clientes de servicios financieros, seguros, retail y gobierno. Contamos con 6 años diseñando soluciones a las necesidades de nuestros clientes, con foco en consultoría, formación de equipos, desarrollo de proyectos y servicios de soporte/administración IT. Buscamos participar en proyectos innovadores con clientes de alto nivel, promoviendo un ambiente colaborativo, aprendizaje continuo y crecimiento profesional.

Apply only from getonbrd.com.

Responsabilidades

  • Implementación de Infraestructura como Código (IaC) con Terraform para entornos de producción y staging.
  • Automatización de entornos y despliegues para garantizar entregas rápidas y confiables.
  • Operación de servicios en la nube (principalmente AWS) y gestión de incidentes/operaciones 24x7.
  • Soporte en monitoreo, alertamiento e RCA de incidentes; mejora continua de la observabilidad.
  • Mantenimiento de pipelines de CI/CD y documentación técnica actualizada.

Requisitos y habilidades

Buscamos un/a SRE / DevOps Engineer Junior con 1 a 3 años de experiencia en roles de SRE o DevOps. Requisitos técnicos: experiencia intermedia en Cloud (AWS, GCP o Azure), Terraform intermedio, Docker y Linux intermedios. Conocimientos en CI/CD y automatización (Bash o Python). Deseable experiencia en observabilidad y resolución de problemas en producción. Competencias blandas: proactividad, orientación a resultados, trabajo en equipo y capacidad de aprendizaje continuo. Se valorarán certificaciones en nube y herramientas de automatización.

Deseable

Experiencia práctica con Kubernetes, herramientas de monitoreo (Prometheus, Grafana, CloudWatch), scripting avanzado (Python), y conocimientos en seguridad en nube. Capacidad de trabajar en entornos dinámicos y con clientes de diversos sectores.

Beneficios y próximo pasos

En BC Tecnología promovemos un entorno de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura impulsa el crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Modalidad híbrida ubicada en Las Condes, que facilita combinar trabajo remoto y presencial para un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
DevOps Engineer
  • ARKHO
  • Santiago (Hybrid)
DevOps Continuous Integration Virtualization Amazon Web Services

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, analítica avanzada y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Exclusive to Get on Board.

🎯 Objetivo del rol

En ARKHO buscamos una o un DevOps Engineer que impulse la automatización, la mejora continua y la operación de plataformas cloud, integrando prácticas DevOps para entregar soluciones escalables, seguras y alineadas con los objetivos del negocio. El rol colabora estrechamente con equipos de desarrollo, operaciones y arquitectura, promoviendo buenas prácticas en infraestructura como código, CI/CD y orquestación de servicios.

🏹 Perfil del Archer

En ARKHO valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos.

Funciones Principales:

  • Diseñar, implementar y operar infraestructura cloud en AWS, asegurando entornos seguros, escalables y alineados a estándares definidos.
  • Automatizar la infraestructura mediante Infrastructure as Code (Terraform), garantizando trazabilidad y consistencia en los entornos.
  • Diseñar y administrar pipelines CI/CD con Jenkins, asegurando procesos de integración y despliegue continuo eficientes.
  • Operar y administrar clústeres Kubernetes para el despliegue, escalamiento y monitoreo de servicios.
  • Colaborar con equipos de desarrollo y arquitectura para mejorar los flujos de entrega y fortalecer la cultura DevOps.
  • Identificar e implementar mejoras técnicas que optimicen procesos, automatización y operación de la plataforma.
  • Implementar monitoreo y documentar buenas prácticas para asegurar la continuidad operacional y la mejora continua.

Buscamos personas con:

  • Título de Ingeniería en Computación, Ingeniería en Informática, Ingeniería de Sistemas o carrera afín.
  • Al menos 3 años de experiencia trabajando en entornos cloud, preferentemente sobre AWS.
  • Experiencia sólida en gestión y automatización de pipelines CI/CD utilizando Jenkins.
  • Experiencia práctica en infraestructura como código utilizando Terraform.
  • Conocimientos y experiencia en orquestación de servicios con Kubernetes.
  • Disponibilidad para asistir 2 veces por semana a oficina, ubicada en Santiago Centro.

Beneficios del Archer

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Trabajo híbrido
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)
💰 Aguinaldos
🏥 Seguro complementario de salud
🧘‍♀️ ARKHO Open Doors

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks ARKHO offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Health coverage ARKHO pays or copays health insurance for employees.
Computer provided ARKHO provides a computer for your work.
Education stipend ARKHO covers some educational expenses related to the position.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Observability Engineer
  • Improving South America
Virtualization Amazon Web Services Docker Azure

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply to this job opportunity at getonbrd.com.

Responsabilidades del puesto

En Improving South America buscamos un/a Senior Observability Engineer para diseñar y escalar una plataforma que procesa billions de logs, métricas y traces en entornos híbridos y multi-cloud.

Responsabilidades del rol:

  • Diseñar y operar servicios core de la plataforma (Go / Java / Python / Node).
  • Liderar la estrategia de OpenTelemetry (Collector, OTLP, semantic conventions).
  • Arquitecturar pipelines fault-tolerant de alto throughput.
  • Definir estándares de instrumentación a nivel enterprise.
  • Optimizar performance y costos (sampling, retención, agregación).
  • Definir SLIs, SLOs, error budgets y prácticas de incident response.
  • Operar sistemas 24x7 y participar en on-call.
  • Colaborar con SRE, CI/CD, Cloud, Security y Platform Engineering.
  • Diseñar pipelines seguros (mTLS, zero-trust patterns).
  • Influir en la dirección técnica de la plataforma junto a Principal Engineers.

Requerimientos indispensables

  • 8+ años en Software Engineering, Platform Engineering o SRE.
  • Nivel de inglés intermedio/ avanzado requerido para comunicación diaria con equipos globales.
  • Experiencia sólida en observabilidad a nivel arquitectura.
  • Dominio práctico de OpenTelemetry (Collector, pipelines, OTLP).
  • Experiencia diseñando sistemas distribuidos de alto throughput.
  • Experiencia real en Docker, Kubernetesy plataformas cloud-native (AWS, GCP o Azure).
  • Experiencia en ArgoCD.
  • Experiencia con Grafana stack (Grafana, Loki, Tempo, Mimir) o similar.
  • Service Mesh (Envoy / Istio).
  • Buen criterio técnico y capacidad de influencia transversal.

Plus relevante

  • Kafka / Pulsar o sistemas de streaming.
  • Infraestructura como Código (Terraform / CloudFormation).
  • Optimización de costos en telemetría.
  • Entornos regulados (healthcare, finance).

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Cloud Support Engineer
  • Improving South America
Python MySQL Linux Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Opportunity published on Get on Board.

Funciones del cargo

Estamos buscando contratar a un Ingeniero de Soporte Cloud que sea experto en resolución de problemas, aprenda rápido, sea entusiasta, altamente motivado y capaz de brindar una excelente experiencia de soporte mientras ayuda a que los clientes empresariales tengan éxito con sus nubes basadas en open-source. En esta posición, el ingeniero interactuará con los ingenieros SysAdmin/DevOps del cliente y los asistirá en la resolución de problemas que surjan en su entorno OpenStack/Kubernetes, manteniendo un alto nivel de cumplimiento de SLA. Este rol implica aprendizaje continuo y perfeccionamiento de habilidades en OpenStack y Kubernetes.

Como Ingeniero de Soporte Cloud, serás responsable del soporte técnico y la consultoría para la creciente base de clientes reportando al Global Cloud Support Manager, cumpliendo con las siguientes responsabilidades:

  • Monitoreo de la cola de tickets (5%)
  • Resolución independiente de problemas de clientes (50%)
  • Explicar y revisar problemas a través de Zoom (5–7%)
  • Mantenimiento de la base de conocimiento/documentación (10%)
  • Capacitación (uno a uno, estudio personal, capacitaciones/handovers) (10%)
  • Reuniones (5–7%)
  • Proyectos (reportes, automatización, customer success, desarrollo de procesos) (10%)

Requerimientos del cargo

  • Conocimiento práctico de los componentes de OpenStack, su arquitectura y su flujo de datos (indispensable).
  • Conocimiento de tecnologías satélite de OpenStack (MySQL, OVS, RabbitMQ, namespaces de red, hipervisores, etc.).
  • Comprensión de clústeres Kubernetes y experiencia práctica resolviendo problemas en clústeres Kubernetes en producción.
  • Más de 3 años de experiencia manejando escalaciones de clientes mediante respuestas por portal, videollamadas (Webex, Zoom, etc.) o teléfono para resolver casos o escalaciones según sea necesario.
  • Excelentes habilidades de comunicación oral y escrita.
  • Experiencia en administración Linux y conocimiento de subsistemas de almacenamiento y redes.
  • Buen entendimiento de tecnologías de virtualización como KVM, libvirt, Xen.
  • Conocimientos básicos de redes: TCP/UDP, DNS, DHCP, ICMP y direccionamiento IP.
  • Competencia en programación y scripting en Python, Bash, awk o sed.
  • Contar con un nivel de inglés intermedio-avanzado o avanzado (indispensable para realizar reuniones y llamadas en inglés).

Opcionales

  • SDN (OVS/OVN), flujo de control de OpenStack, herramientas de gestión de configuración, Golang, AWS, EKS, CKA, Terraform, PCA

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Infraestructura
  • BC Tecnología
  • Santiago (In-office)
PHP PostgreSQL Linux Web server
BC Tecnología es una consultora de TI con personal experto en diversas áreas. Nos enfocamos en servicios IT que abarcan administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales. Creamos equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando para clientes de servicios financieros, seguros, retail y gobierno. Con más de 6 años diseñando soluciones a la medida, nuestras áreas de negocio abarcan consultoría y diseño de soluciones, formación y outsourcing de personal, desarrollo de proyectos y servicios de soporte IT. Nuestro enfoque está en el cliente, metodologías ágiles, cambios organizacionales y desarrollo de productos.

Official source: getonbrd.com.

Funciones del cargo

  • Administrar, configurar y mantener la infraestructura IT de la organización, con enfoque en entornos virtualizados y plataformas de alto rendimiento.
  • Gestión y migración de infraestructuras virtualizadas (VMware, KVM, Proxmox), asegurando disponibilidad, rendimiento y seguridad.
  • Administrar y optimizar sistemas Linux (Debian, CentOS u otros) y Windows 10 o superiores, incluyendo SSH, servicios web, bases de datos y pila de aplicaciones.
  • Gestionar servicios web (Apache, Nginx), certificados SSL, proxies inversos y optimización de rendimiento; administrar bases de datos (PostgreSQL) y aplicaciones PHP.
  • Monitoreo, respaldo, recuperación ante desastres y gestión de cambios; documentación completa de toda la operativa para continuidad futura.
  • Implementar buenas prácticas de ciberseguridad y mantener la documentación actualizada.
  • Trabajar con equipo de soporte, automatización y desarrollo para garantizar soluciones escalables y sostenibles.

Requisitos y perfil

Formación: Ingeniero en Informática, Ingeniería de Sistemas, Computación u otra formación relacionada.
Experiencia: trayectoria comprobable en gestión y migración de infraestructuras virtualizadas (VMware, KVM, Proxmox).
Conocimientos técnicos: Linux avanzado; SSH; servidores web Apache y Nginx; gestión de bases de datos PostgreSQL; experiencia con aplicaciones PHP; gestión de entornos virtualizados; conocimiento de ciberseguridad de servidores y versiones de sistemas operativos.
Certificaciones: Certificación VMware y certificación en Linux.
Capacidades: documentación detallada de las actividades, capacidad de trabajo en equipo, orientación a resultados, resiliencia ante incidentes y buena comunicación técnica.

Competencias deseables

Conocimientos en Proxmox avanzado, scripting y automatización ( Bash, Python), herramientas de gestión de configuración (Ansible, Puppet), experiencia con Docker/Kubernetes, cloud (AWS, Azure) y técnicas de migración y consolidación de infraestructuras. Se valorará experiencia en ITIL, gestión de proyectos y capacidad para liderar pequeños equipos o proyectos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3300 Full time
QA Automation Engineer
  • Coderslab.io
JavaScript C Python Agile

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.

En esta ocasion estamos buscando incorporar un/a QA Automation Engineer con amplia experiencia en entornos productivos, capaz de diseñar, modificar y mantener integraciones y modelos de datos críticos con total seguridad y control del impacto, garantizando la continuidad operativa, la calidad de la información y cero impacto al negocio.

Find this vacancy on Get on Board.

Funciones del cargo

• Diseñar, desarrollar y mantener scripts y marcos de prueba automatizados para aplicaciones web y/o móviles.

• Colaborar con desarrolladores, propietarios de productos e ingenieros de control de calidad manuales para definir estrategias de prueba y garantizar su cobertura.

• Ejecutar conjuntos de pruebas automatizadas, analizar resultados e informar defectos de forma clara y concisa.

• Participar en revisiones de código, proporcionar retroalimentación sobre estrategias de automatización y garantizar el cumplimiento de las mejores prácticas de control de calidad.

• Integrar pruebas automatizadas en los procesos de CI/CD para una ejecución de pruebas eficiente y escalable.

• Contribuir a la mejora de los procesos, herramientas y metodologías de control de calidad para optimizar la calidad del producto.

Requerimientos del cargo

• Más de 3 años de experiencia en ingeniería de control de calidad (QA) con especialización en automatización de pruebas.

• Sólida experiencia práctica con frameworks de automatización Playwright (se requiere Selenium, Cypress o similares son un plus).

• Experiencia con lenguajes de programación/scripting como JavaScript, Python o C#.

• Experiencia con pruebas de API (Postman, REST Assured o herramientas similares).

• Experiencia práctica con herramientas de CI/CD (Jenkins, GitHub Actions, Azure DevOps o similares).

• Sólidos conocimientos de técnicas de diseño de pruebas, metodologías de QA y SDLC.

• Experiencia trabajando en entornos Agile/Scrum.

Inglés avanzado (obligatorio).

Deseable:

• Experiencia con entornos en la nube (AWS, Azure, GCP).

• Conocimiento de pruebas de rendimiento y herramientas relacionadas (JMeter, Gatling).

• Certificaciones de QA ISTQB o similares.

Condiciones

Modalidad: 100% Remoto
Duración del proyecto: 4 meses con posibilidad de extensión

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior AWS Cloud Engineer
  • Merapar
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Cloud Computing
Merapar is a European Software/Technology consultancy company that specializes in cloud (AWS and GCP) , video platforms and utilities that now also has an office in Chile serves the Americas market. We work in small agile teams and help global video power houses such as BBC, NBC Universal, Liberty Global, Discovery to get innovations to the market. The senior cloud engineer will work with a team based in the UK that works on video platforms and monitoring solutions for utility companies

This company only accepts applications on Get on Board.

Job functions

  • Design and implement using IaC AWS based infrastructure solutions.
  • Create and maintain CI/CD pipelines.
  • Support existing cloud infrastructure.
  • Work inside Agile teams working collaboratively with other developers

Qualifications and requirements

  • Good level in English. The interviews will be in English
  • Over 8 years' experience with at least 3 years of AWS and Infrastructure as Code experience.
  • Extensive programming knowledge in Python or having experience in other languages and willing to learn Python
  • Extensive experience in cloud technologies with recent hands-on AWS knowledge.
  • Proven record of high-quality delivery and related documentation.
  • Able to take feature and functional requirements and convert them into technical solutions.
  • Resident in Chile and living in Santiago

Desirable skills

  • Extensive experience with Terraform

Conditions

  • Very experienced colleagues you can work with and learn from
  • 40 hour work week
  • 20 vacation days (and yes you can take them in the first year as well)
  • more unpaid vacation days if your manager approves
  • Macbook Pro to do your work on
  • Work from home.
  • We meet once per week to work and have lunch together
  • Paid sick days
  • A company that is willing to invest in your development

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Merapar pays or copays health insurance for employees.
Computer provided Merapar provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Merapar gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Cloud Sales Engineer
  • Niuro
Sales Openstack Cloud Computing Cloud

Niuro partners with leading U.S. companies to deliver autonomous, high-performance tech teams for complex, technically rigorous projects. Our cloud-focused engagements span pre-sales, solution design, and seamless handoffs to implementation, with emphasis on scalable, secure architectures and measurable business value. As a Cloud Sales Engineer, you will be embedded at the intersection of technology, customer engagement, and sales strategy, contributing to multi-cloud initiatives, infrastructure as code, and secure, observable cloud environments. You will help shape project scope, architectural direction, and long-term customer success through ongoing collaboration with product, engineering, and sales teams. This role supports remote, globally distributed teams and offers substantial opportunity for leadership and professional growth within Niuro’s global community.

Applications: getonbrd.com.

Key Responsibilities

  • Pre-Sales & Customer Engagement: Partner with Sales to qualify opportunities and design cloud architectures aligned with customer requirements. Lead technical discovery sessions to understand needs, identify challenges, and propose optimal solutions. Translate customer needs into tailored technical architectures and implementation approaches.
  • Solution Design & Validation: Design solution architectures, diagrams, proposals, and TCO/ROI analyses to articulate technical and business value. Deliver product demonstrations, POCs, and performance benchmarks to validate proposed solutions. Architect solutions leveraging OpenStack, with strong knowledge of AWS, Azure, GCP, and hybrid/multi-cloud environments.
  • Technology & Best Practices: Recommend and apply best practices in IaC (Terraform, Ansible), containers/orchestration (Docker, Kubernetes), automation, security, monitoring, and observability. Integrate security, monitoring, and observability into all designs.
  • Cross-Functional Collaboration & Enablement: Collaborate across functions to ensure smooth transition from pre-sales to implementation. Conduct workshops and enablement sessions to support customer adoption and long-term success. Share customer insights to influence product roadmaps, sales strategies, and technical marketing.

What you will do

As a Cloud Sales Engineer, you will serve as the principal technical advisor, shaping secure, scalable, and cost-effective cloud solutions for strategic customers. You will own the technical discovery process, help craft compelling architectures, and validate designs through demonstrations, POCs, and performance benchmarks. You will articulate the business value of cloud strategies, including multi-cloud and OpenStack-based approaches, and drive consensus with stakeholders across technical and non-technical audiences. Your work will bridge the gap between technology and business outcomes, ensuring successful delivery from pre-sales through implementation, while continuously capturing customer insights to guide product and market strategies.

Desirable

Experience in multi-cloud or hybrid cloud environments at scale; hands-on with Helm and advanced Kubernetes workloads; familiarity with CI/CD platforms (Jenkins, GitLab CI/CD, GitHub Actions); knowledge of security/compliance frameworks (SOC 2, ISO 27001, GDPR, HIPAA); experience with cloud cost optimization, TCO/ROI modeling, and pricing strategies; relevant certifications (AWS/Azure/GCP/OpenStack); exposure to AI agents, MCP servers, and AI-driven use cases within cloud infrastructure.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.

Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.

Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.

Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2800 - 3800 Full time
Ingeniero Cloud/DevOps
  • Itrend Chile
  • Santiago (Hybrid)
DevOps Virtualization Amazon Web Services Cloud Computing

En el Instituto para la Resiliencia ante Desastres (Itrend) estamos dedicados a la creación de bienes y servicios públicos mediante la colaboración y la innovación informadas por el conocimiento científico-tecnológico, con el objetivo de mitigar el impacto de desastres socionaturales en el país. Nuestro equipo especializado se conecta con diversos actores de la sociedad para fomentar un desarrollo sostenible y resiliente. Actualmente, buscamos un/a ingeniero/a de proyectos que se una al área de proyectos de Itrend.

Apply directly from Get on Board.

Responsabilidades del Ingeniero Cloud/DevOps

  • Mantener, desarrollar y documentar la infraestructura digital de Itrend en ambiente cloud a través del monitoreo continuo de su estado, desarrollo y despliegue de actualizaciones.
  • Mantener, desarrollar y documentar los flujos de trabajo para la integración y despliegue continuos de los distintos productos digitales de Itrend.
  • Conocer los stacks tecnológicos utilizados por el instituto para sus diferentes desarrollos.
  • Dar soporte al equipo a través del desarrollo de requerimientos de infraestructura digital y flujos CI/CD.
  • Diseñar, implementar y documentar soluciones de infraestructura digital para los productos existentes, así como para los nuevos desarrollos del instituto.
  • Dar soporte al equipo en el levantamiento de ambientes de desarrollo y despliegue.
  • Participar de manera activa en las distintas instancias de colaboración con el equipo de Itrend.

Requerimientos del cargo

Buscamos un(a) profesional que demuestre:

  • Gran capacidad y conocimiento técnico en el desarrollo de infraestructura digital cloud, ingeniería y arquitectura de software.
  • Excelentes habilidades de comunicación y disposición para el desarrollo de desafíos colaborativos de alta complejidad técnica.
  • Proactividad e independencia en el desarrollo de tareas y desafíos técnicos.

Buscamos un(a) profesional que tenga:

  • Ingeniero Civil en Informática o Título Universitario en alguna carrera afín (sobre 4 años).
  • Inglés Avanzado.
  • Experiencia en el desarrollo de infraestructura cloud con el proveedor AWS (sobre 3 años)
  • Experiencia en el desarrollo de flujos de trabajo en Github Actions (sobre 3 años)
  • Interés en la creación de bienes y servicios públicos.

Valoramos a aquellos que pueden aportar una mezcla de habilidades técnicas y blandas, asegurando el éxito de nuestros desarrollos en un ambiente dinámico y necesario para mejorar la resiliencia en Chile.

El puesto permite trabajo remoto un día a la semana y exige trabajo presencial los cuatro restantes en nuestras oficinas ubicadas en Providencia, metro Pedro de Valdivia.

Habilidades Deseables

Si bien no son un requisito, se evaluará positivamente a los candidatos que tenga uno o más de las siguientes experiencias/habilidades:

  • Experiencia previa en el desarrollo de software en el contexto de soluciones para la resiliencia ante desastres.
  • Habilidades en gestión de ciberseguridad.
  • Habilidades en desarrollo de gobernanza de datos y/o infraestructura de datos.

Beneficios de Trabajar con Itrend

Ofrecemos un ambiente de trabajo orientado a la colaboración y el crecimiento, con beneficios que incluyen:

  • Modalidad de trabajo híbrido y flexible, permitiendo un día de teletrabajo a la semana.
  • Días de vacaciones adicionales a las legales y vacaciones proporcionales antes de cumplir un año de antigüedad.
  • Días administrativos para facilitar trámites personales.
  • Día libre por cumpleaños y días adicionales de postnatal para el padre.
  • Oportunidades de desarrollo profesional y personal, enfocadas en el bienestar de nuestra comunidad.

Itrend es una organización sin fines de lucro enfocada en mejorar la resiliencia de Chile ante desastres socionaturales. Te ofrecemos la oportunidad de que tu trabajo tenga un impacto real en el bienestar y seguridad de tu comunidad y todo el país.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Itrend Chile provides a computer for your work.
Vacation over legal Itrend Chile gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Site Reliability Engineer
  • BC Tecnología
  • Santiago (Hybrid)
DevOps SRE Automation Cybersecurity
BC Tecnología es una consultora de TI con foco en servicios, outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Enfocada en equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, la empresa acompaña a sus clientes en diseño de soluciones, formación de equipos y desarrollo de proyectos. El proyecto objetivo de este rol de Site Reliability Engineering es asegurar la confiabilidad, disponibilidad y performance de soluciones críticas, mediante prácticas de ingeniería de confiabilidad, monitoreo, incidentes y automatización, alineadas a estándares corporativos. Participarás en un entorno de alta exigencia tecnológica, con énfasis en observabilidad, resiliencia por diseño y mejora continua de performance, dentro de una cultura que promueve el aprendizaje y la colaboración entre equipos.

This job is published by getonbrd.com.

Funciones principales

  • Garantizar disponibilidad y confiabilidad de los sistemas y servicios
  • Diseñar arquitecturas resilientes y escalables
  • Implementar monitoreo, alertas y dashboards para observabilidad
  • Gestión de incidentes críticos y respuesta rápida
  • Automatizar procesos operativos para reducir toil
  • Estabilización post-producción y mejoras de performance
  • Colaborar con equipos de desarrollo e infraestructuras para diseño orientado a la confiabilidad
  • Aplicar prácticas de Site Reliability Engineering alineadas a estándares corporativos

Qué buscamos

Buscamos profesionales con experiencia en Site Reliability Engineering o roles de DevOps/Infraestructuras con foco en confiabilidad. Deben poseer habilidades para diseñar soluciones resilientes, implementar monitoreo y gestionar incidentes de forma eficiente, con enfoque en automatización y reducción de toil operativo. Se valorará conocimiento en plataformas de nube, herramientas de orquestación y criptografía aplicada para asegurar la seguridad y continuidad de negocio. Se requieren capacidades de comunicación, trabajo en equipo y orientación a resultados en un entorno ágil.

Requisitos deseables

Experiencia previa en entornos financieros o regulados, conocimiento de herramientas de observabilidad (como Prometheus, Grafana), sistemas de registro (ELK/EFK), y automatización con scripts o herramientas como Ansible, Terraform, o similar. Familiaridad con contenedores (Docker, Kubernetes) y prácticas de CI/CD. Certificaciones en SRE, DevOps, o nube (AWS, Azure, GCP) serán valoradas. Habilidades de resolución de problemas, pensamiento analítico y capacidad para trabajar en entornos dinámicos y multicultura.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo y enfocado en el aprendizaje continuo. La modalidad híbrida, ubicada en Las Condes, facilita equilibrio entre remoto y presencial. Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, con una cultura de inclusión, respeto y desarrollo técnico. Ofrecemos crecimiento profesional, capacitación y oportunidades de movilidad interna, junto a beneficios corporativos y un entorno que valora la innovación y la excelencia.

VIEW JOB APPLY VIA WEB
Gross salary $1000 - 1500 Full time
QA Semi Senior
  • Coderslab.io
  • Guayaquil (In-office)
Agile SQL QA Scrum
Company: Coderslab.io es una empresa tecnológica en crecimiento que ayuda a las organizaciones a transformarse y crecer mediante soluciones innovadoras. Formarás parte de un equipo diverso compuesto por más de 3,000 empleados a nivel global, con oficinas en América Latina y Estados Unidos. Trabajarás con los mejores talentos del sector en proyectos desafiantes e innovadores que impulsarán tu carrera.
Proyecto: Participarás en un programa de aseguramiento de calidad (QA) para software en un entorno ágil. Colaborarás con equipos de desarrollo y producto para garantizar la entrega de software estable, confiable y de alta calidad, empleando prácticas modernas de pruebas y automatización según las necesidades del proyecto.

Apply to this job at getonbrd.com.

Funciones principales

Como QA Semi Senior, serás responsable de apoyar la verificación y validación de software a lo largo del ciclo de vida del desarrollo. Tus tareas incluirán:
Experiencia de 2 años trabajando como QA / Analista de Pruebas.
Experiencia comprobable en:
Pruebas funcionales y de regresión sobre aplicaciones web.
Diseño y documentación básica de casos de prueba.
Conocimiento práctico de:
Uso de alguna herramienta para pruebas de APIs (Postman o similar).
SQL básico para consultar y validar datos.
Familiaridad trabajando en equipos ágiles (Scrum o Kanban) o ciclos iterativos de desarrollo.
Conocimiento básico de servicios y entornos en la nube (AWS), orientado a la comprensión de
ambientes de prueba, despliegues, endpoints y análisis de incidencias.
Habilidad para documentar hallazgos de forma clara y ordenada.

Perfil buscado

Buscamos un/a QA Semi Senior con actitud proactiva y enfoque en la calidad. Debes tener experiencia práctica en pruebas de software, capacidad para comprender requerimientos, y ganas de crecer en un entorno ágil y tecnológicamente avanzado. Valoramos la atención al detalle, habilidades de análisis y comunicación efectiva para trabajar con equipos distribuidos.
Requisitos técnicos y de experiencia:
  • Experiencia comprobable en pruebas de software (funcionales, de regresión, exploratorias).
  • Conocimiento de metodologías de QA y herramientas de gestión de pruebas y defectos.
  • Habilidad para diseñar y ejecutar casos de prueba y planes de prueba; creación de matrices de trazabilidad.
  • Familiaridad con conceptos de automatización de pruebas y frameworks relevantes (según el stack del proyecto).
  • Capacidad para trabajar en entornos ágiles (Scrum/Kanban) y colaborar con equipos de desarrollo y producto.
  • Buena capacidad de análisis, enfoque en calidad, organización y gestión del tiempo.
  • Espíritu de equipo, comunicación clara y proactividad para identificar mejoras de calidad.
  • Idioma: español e inglés técnico deseable para lectura de documentación y herramientas.
Nivel de experiencia: Semi Senior (aproximadamente 2-4 años en QA o rol similar).

Requisitos deseables

Experiencia en pruebas automatizadas o scripting para pruebas, conocimiento de herramientas de automatización, experiencia en entornos multinacionales, certificaciones en QA (por ejemplo, ISTQB) y habilidades para trabajar en un entorno remoto/global. Capacidad para adaptarse rápidamente a nuevas tecnologías y procesos, y para aportar ideas de mejora continua en QA y calidad de producto.
Experiencia de 2 años trabajando como QA / Analista de Pruebas.

Beneficios y entorno

La posición es de contratación a plazo fijo para un proyecto de 7 meses, con modalidad de trabajo en remoto global y oportunidades de crecimiento dentro de Coderslab.io. El equipo ofrece mentoría de profesionales experimentados, acceso a tecnologías de punta y un entorno que promueve el desarrollo profesional continuo. Comprometidos con un equilibrio entre vida personal y laboral, y con un enfoque en proyectos desafiantes en mercados internacionales. Si estás interesado, continúa investigando las oportunidades dentro de nuestra organización y prepárate para colaborar con especialistas de alto rendimiento.

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior QA Engineer
  • Improving South America
JavaScript Ruby Ruby on Rails Python

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Official source: getonbrd.com.

Job functions

En Improving South America estamos buscando un/a QA Engineer Senior para sumarse a nuestro equipo y ser una pieza clave en la calidad, estabilidad y confiabilidad de nuestros productos. La persona que se incorpore tendrá un rol activo en la definición de procesos de calidad, automatización de pruebas y acompañamiento de los equipos de desarrollo.

Qualifications and requirements

  • Al menos 3 años de experiencia práctica en automatización de pruebas, tanto API como UI.
  • Experiencia sólida en frameworks de testing automatizado con Selenium.
  • Capacidad para escribir código de pruebas automatizadas.
  • Amplia experiencia en detección, análisis y resolución de bugs.
  • Conocimiento profundo de buenas prácticas de QA.
  • Experiencia con una o más de las siguientes tecnologías:
    • AWS, Kubernetes, GraphQL
    • Python, Ruby, Rails
    • React, JavaScript
    • Jenkins, Jira, GitHub
    • SQL
  • Nivel de ingles: B2+

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Improving South America offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $1200 - 1800 Full time
Escalation Engineer – Cloud & Infrastructure
  • Devups
Virtualization Amazon Web Services Azure Cloud Computing
En Devups, ofrecemos servicios de staff augmentation para clientes que buscan escalar sus equipos de IT sin las cargas administrativas tradicionales. Este rol de Escalation Engineer forma parte de nuestro equipo de ingeniería de infraestructura híbrida y cloud, orientado a gestionar incidentes complejos, migraciones y despliegues de alto impacto para clientes empresariales. Trabajarás directamente con entornos on-premise y en la nube (Azure, AWS, Google Cloud), apoyando a equipos de TI en proyectos críticos y asegurando la continuidad del negocio mediante soluciones robustas y documentadas. Nuestro objetivo es combinar la experiencia técnica con una ejecución ágil para entregar resultados de alta calidad y garantizar la seguridad y confidencialidad de la información.

This job is original from Get on Board.

Funciones principales

  • Gestionar escalaciones técnicas de nivel avanzado relacionadas con infraestructuras cloud y on-premise.
  • Diseñar, implementar y dar soporte a despliegues y migraciones en Microsoft Azure, AWS y Google Cloud Platform.
  • Administración, despliegue y migración de Microsoft 365 / Office 365.
  • Administrar servidores físicos y virtuales, tanto on-premise como en la nube, incluyendo VMware, Nutanix, Cisco HyperFlex y Hyper-V.
  • Diseñar e implementar soluciones de backup y disaster recovery (Datto y Veeam como tecnologías principales).
  • Soporte y mantenimiento de servicios críticos: Active Directory, DNS, Windows Servers.
  • Configuración y soporte de firewalls, switching y VPNs; gestión de incidentes y resolución proactiva de riesgos.
  • Identificación proactiva de peligros técnicos y mitigación a través de buenas prácticas de seguridad y gestión de cambios.
  • Documentación técnica detallada y participación activa en proyectos de infraestructura; coordinación con equipos y stakeholders.
  • Rotación de guardias (On-Call) y desplazamientos locales a instalaciones de clientes dentro de la región asignada.
  • Garantizar confidencialidad absoluta de datos, credenciales y sistemas.

Descripción

Buscamos un profesional con sólida experiencia en administración de infraestructuras híbridas y servicios en la nube para gestionar incidentes críticos, realizar migraciones y promover migraciones eficientes. Se requiere capacidad de trabajo autónomo, orientación a resultados y habilidades de comunicación técnica para documentar soluciones, gestionar escalaciones y colaborar con equipos multicisciplinarios. Se valorará experiencia previa en MSP o CSP, y certificaciones relevantes en Microsoft, AWS, VMware, Cisco u otras. El candidato ideal tiene un enfoque analítico, alta capacidad de resolución de problemas, y capacidad para trabajar bajo presión en entornos productivos y con clientes exigentes. Nivel de inglés mínimo intermedio para lectura técnica y comunicación básica.

Requisitos Deseables

Título universitario en Informática, Ingeniería o carrera afín. Certificaciones IT (Microsoft, AWS, VMware, Cisco u otras). Experiencia en gestión de proyectos IT. 5+ años de experiencia en roles similares. Perfil ideal: Ingeniero/a con fuerte criterio técnico, capacidad de análisis y enfoque en la calidad del servicio; experiencia manejando incidentes críticos y entornos productivos; excelente capacidad de documentación y comunicación técnica; capacidad para trabajar bajo presión y en contextos de escalación.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
VIEW JOB APPLY VIA WEB
$$$ Full time
SRE
  • OpenLoop
  • Lima (Hybrid)
Python Linux Go DevOps
About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Opportunity published on Get on Board.

Funciones del cargo

Cross-Functional Collaboration

  • Partner with engineering teams to improve system reliability and deployment practices
  • Engage with Openloop teams on SRE guidelines and best practices about automation and infrastructure
  • Work with security teams to implement secure, compliant infrastructure

Operational Excellence

  • Ensure 24/7 system availability and rapid incident response
  • Implement and maintain disaster recovery and business continuity plans
  • Skilled at performance tuning — identifying bottlenecks at infra, app, and database layers.

Security

  • Understanding of cloud security principles (least privilege, network segmentation, encryption at rest/in transit).
  • Familiarity with compliance frameworks (SOC 2, ISO 27001, GDPR, HIPAA) and how SRE supports them.

Cultural

  • Advocate for blameless culture and continuous improvement.
  • Collaborate closely with product and engineering to make reliability a shared responsibility.

Requerimientos del cargo

  • 2 - 3 years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • Good background in AWS, particularly with serverless architectures
  • Understanding of observability and incident management
  • Strong knowledge in at least one programming language (Typescript, Python, Go, etc.). Previous experience as a Developer is a plus
  • Knowledge of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK, Cloudformation)
  • Experience managing monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, GitLab CI, etc)
  • Understanding of database systems and performance optimization
  • Leadership & Communication
  • English (C1) fluency
  • Excellent verbal and written communication skills
  • Ability to translate technical concepts to non-technical audiences
  • Good problem-solving and decision-making capabilities
  • Experience with agile methodologies

Condiciones

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Life insurance OpenLoop pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Health coverage OpenLoop pays or copays health insurance for employees.
Dental insurance OpenLoop pays or copays dental insurance for employees.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Talana
PostgreSQL Git DevOps Virtualization
Empresa dedicada a la gestión de negocios busca un DevOps Engineer con mentalidad disruptiva, capaz de construir puentes sólidos en automatizadas.
Tu misión será ser responsable de diseñar y mantener la infraestructura que soporta nuestros productos, optimizando el ciclo de vida del software mediante la automatización. Tu foco estará en la resiliencia de los sistemas y en la colaboración estrecha con los equipos de desarrollo para implementar arquitecturas modernas en la nube.

© getonbrd.com. All rights reserved.

Funciones del cargo

  • Automatización Integral: Diseñar y ejecutar tareas de automatización para el aprovisionamiento, gestión de configuración y despliegues (CI/CD).
  • Arquitectura On-Prem: mantención y gestión de infraestructura on-prem a través de Proxmox
  • Arquitectura Cloud: Implementar y escalar infraestructuras en ambientes AWS, colaborando en el diseño de nuevos productos.
  • Cultura de Observabilidad: Monitorear servicios y recursos utilizando herramientas de telemetría para asegurar el rendimiento y la disponibilidad.
  • Seguridad y Escalabilidad: Garantizar que cada componente de la infraestructura cumpla con estándares de seguridad y pueda crecer según la demanda del negocio.
  • Resolución de Problemas: Actuar como nivel avanzado en el análisis y solución de incidentes complejos en sistemas distribuidos.

Requerimientos del cargo

  • Experiencia: Mínimo 5 años en roles de DevOps, SRE o Infraestructura.
  • Sistemas Operativos: Conocimientos avanzados tanto en Windows Server como en entornos GNU/Linux.
  • Cloud &amp; IaaS: Conocimientos avanzados operando con Proxmox, además de familiaridad con AWS. Manejo transversal de Infraestructura como Código (IaC) con herramientas como Docker y Docker Swarm.
  • Stack CI/CD: Operación fluida de herramientas como GitHub Actions o similares para la automatización de pipelines.
  • Telemetría: Experiencia con sistemas de monitoreo y alertas (Elasticsearch + Kibana)
  • Bases de Datos: Capacidad para realizar consultas y gestión básica de tabla en
    mariaDB o postgreSQL.
  • Control de versión: amplia experiencia utilizando git
  • Formación: Estudios avanzados o finalizados en Ingeniería Civil Informática, Computación o carreras afines.
Competencias Blandas
  • Comunicación Adaptativa: Capacidad para traducir conceptos técnicos complejos a stakeholders no técnicos al discutir plazos o soluciones.
  • Mentalidad de Equipo: Disposición para compartir conocimientos, mentorizar y colaborar de forma abierta.
  • Proactividad e Innovación: Ganas constantes de aprender y proponer nuevas formas de hacer las cosas.
  • Foco en Automatización: Pasión por eliminar tareas repetitivas y mejorar la experiencia de desarrollo (DevEx).

Plus que te hará destacar

  • Motivación y fascinación por la automatización de procesos, y migración hacía arquitecturas basadas en contenedores.
  • Experiencia en gestión de entornos Windows en base a “Remote Windows Services” y servidores de licencia.
  • Familiaridad con arquitecturas de Microservicios y APIs REST.
  • Experiencia utilizando AWS AppStream o similares.

Condiciones/Beneficios

  • Modalidad Híbrida: 1 o 2 días presenciales en nuestra oficina de Santiago, manteniendo el resto de la semana en remoto.
  • Flexibilidad: Apertura para viajar o trabajar fuera de Santiago en ocasiones excepcionales según sea necesario.
  • Salud: Seguro complementario
  • Días libres: 3 MyDay adicionales a las vacaciones.
  • Co-creación Ágil: No te sumas a una estructura rígida; buscamos que nos ayudes a definir y mejorar nuestras metodologías de trabajo basándonos en tu feedback.
  • Entorno de Innovación: Espacio para experimentar con las últimas herramientas del mercado.

VIEW JOB APPLY VIA WEB
$$$ Full time
QA Engineer Senior
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python Analytics
En BC Tecnología operamos como una consultora de TI con foco en servicios IT, desarrollo de proyectos y outsourcing. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, apoyando la entrega de soluciones de calidad desde la definición de requisitos hasta la validación y mejora continua de procesos. Nuestro objetivo es integrar soluciones que respondan a las necesidades del cliente, con énfasis en metodologías ágiles, crecimiento profesional y desarrollo de productos, manteniendo un enfoque claro en la experiencia del usuario y la eficiencia operativa.

Apply without intermediaries from Get on Board.

Funciones principales

Participar en la definición de requisitos, flujos de trabajo y procesos de control de calidad. Colaborar activamente en ceremonias ágiles (Scrum, Kanban). Diseñar, documentar y ejecutar planes y casos de prueba. Ejecutar pruebas funcionales y no funcionales (usabilidad, compatibilidad, rendimiento, seguridad). Realizar testing frontend, backend, APIs y mobile. Reportar, gestionar y dar seguimiento a bugs, defectos e incidencias. Analizar logs, servicios y data de prueba para identificar causas raíz. Evaluar el impacto de cambios en el producto. Monitorear métricas de calidad y estabilidad (Grafana, Kibana u otras). Participar en la ejecución y análisis de procesos de CI/CD. Ejecutar y analizar procesos automatizados de prueba. Detectar oportunidades de mejora en el proceso de desarrollo. Apoyar la gestión de calidad de uno o más equipos de desarrollo.

Requisitos y perfil

Más de 3 años de experiencia en roles de QA / Quality Assurance. Experiencia sólida en QA manual avanzado. Experiencia en pruebas de aplicaciones web, mobile y web services. Experiencia en pruebas de API (Postman, SoapUI). Conocimiento del ciclo de vida del desarrollo de software (SDLC). Experiencia trabajando con metodologías ágiles. Manejo de herramientas de gestión de pruebas e incidencias (Jira, TestLink, Zephyr u otras). Capacidad de documentación técnica clara (casos de prueba, resultados, defectos). Habilidad analítica, atención al detalle y orientación a la mejora continua.
Conocimientos técnicos valorados: lenguajes orientados a objetos (Python, Java o JavaScript). Buenas prácticas de desarrollo (encapsulamiento, escalabilidad). Automatización de pruebas (web, servicios, mobile o scripting). Revisión de código (peer review). Herramientas de debugging (IDE, navegador). Patrones arquitectónicos (MVC, arquitectura en capas, event-driven). CI/CD (Pipelines, Jenkins, Bitrise). Infraestructura y cloud (Docker, AWS, Azure). Control de versiones (GitHub, GitLab, Bitbucket).
“Para avanzar en el proceso, es necesario cumplir con los requisitos técnicos y de experiencia señalados.”

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

VIEW JOB APPLY VIA WEB
Gross salary $2200 - 3000 Full time
DevOps / Infraestructura Cloud
  • Centro Medico del Trabajador
  • Santiago (Hybrid)
DevOps Continuous Integration QA Virtualization

Centro Medico del Trabajador (CMT Salud) es un centro de salud enfocado en exámenes preocupacionales y medicina preventiva, con altos estándares de calidad. Buscamos escalar nuestra operación tecnológica para soportar despliegues por paises, con planes de expansión a nuevos mercados. El equipo técnico se orienta a entregar soluciones confiables, seguras y escalables que faciliten la gobernanza, monitoreo y continuidad operativa en un entorno regulado. Este rol será pieza clave en la separación de ambientes por país, migraciones a la nube y mejoras de rendimiento, trabajando en conjunto con QA, desarrollo y liderazgo técnico para lograr entregas predecibles y controladas.

Send CV through Get on Board.

🛠️ Funciones del Rol

  • Gestionar y optimizar la infraestructura en AWS (IAM, VPC, cuentas, accesos).
  • Mantener, mejorar y documentar los pipelines CI/CD, idealmente usando CodePipeline, GitHub Actions o Jenkins.
  • Implementar y mantener flujos ETL usando herramientas como AWS Glue o ZeroETL.
  • Optimizar entornos QA, staging y producción con foco en eficiencia, seguridad y confiabilidad.
  • Coordinar con QA y desarrollo los lanzamientos a producción, asegurando orden, visibilidad y rollback.
  • Ser responsable técnico de los procesos de release y despliegue binacional, incluyendo su planificación, documentación y trazabilidad.
  • Liderar mejoras de gobernanza, monitoreo, seguridad y continuidad operativa.
  • Participar en proyectos estratégicos: separación de ambientes por país, gestión de políticas de acceso, mejoras de performance.

📌 Requisitos y perfil

Buscamos profesionales con experiencia comprobable en DevOps / Infraestructura cloud (al menos 2 años). Dominio sólido de AWS (IAM, ECS/EKS, EC2, S3, VPC, CloudWatch, Glue, etc.) y experiencia con herramientas de CI/CD (CodePipeline, GitHub Actions o Jenkins). Habilidad para diseñar, documentar y ejecutar procesos de despliegue a producción, así como gestionar pipelines y ETL's (Glue o Zero ETL). Se valora conocimiento en infraestructura como código (Terraform, CDK) y buenas prácticas de seguridad, monitoreo y continuidad operativa. Capacidad para colaborar con equipos de QA, desarrollo y producto, manteniendo siempre un enfoque de mejora continua.

🧩 Perfil Deseable

  • Autonomía técnica y capacidad para estructurar soluciones sin supervisión directa.
  • Experiencia en equipos con entregas frecuentes y flujos CI/CD activos.
  • Participación en proyectos de estandarización de entornos o mejora continua en infraestructura cloud.
  • Buenas prácticas en seguridad, monitoreo y continuidad operativa en AWS.
  • Capacidad para colaborar con equipos en Chile y Perú, en un entorno distribuido.

🎁 Beneficios y cultura

  • Cursos en udemy: Nos importa que constantemente estés aprendiendo y creciendo profesionalmente.
  • Convenio con gimnasio.
  • Convenio con Caja Los Andes.
  • Exámenes preventivos realizados en el CMT.
  • Seguro complementario de salud.
  • Convenio App MUVU (bienestar corporativo).
  • No dresscode: ¡Vístete como tú quieras!
  • Bar Office: al menos una vez al mes salimos a trabajar a un bar para generar un ambiente distendido.

VIEW JOB APPLY VIA WEB
$$$ Full time
DBA Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
SQL Virtualization Amazon Web Services Azure
En BC Tecnología, somos una consultora de TI que administra portafolio, desarrolla proyectos y realiza outsourcing y selección de profesionales para clientes en los sectores financiero, seguros, retail y gobierno. Diseñamos equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, con enfoque en clientes, metodologías ágiles y desarrollo de productos. Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno colaborativo que promueve el aprendizaje y la mejora continua. Ubicados en Las Condes, ofrecemos un modelo híbrido que combina trabajo remoto y presencia en oficina para un adecuado equilibrio trabajo-vida.

Apply to this job from Get on Board.

Funciones principales

  • Administrar y monitorear bases de datos SQL / SQL Server.
  • Implementar y gestionar políticas de respaldo y recuperación.
  • Optimizar consultas y realizar tuning de bases de datos.
  • Gestión de usuarios, roles y permisos.
  • Aplicar parches y actualizaciones de seguridad.
  • Dar soporte a equipos de desarrollo y resolver incidentes de BD.
  • Documentar procedimientos y buenas prácticas.

Perfil y experiencia

Buscamos un/a DBA Semi Senior para entregar excelencia en la administración de bases de datos y apoyo a operaciones y proyectos. Requisitos: Ingenierías en Informática, Sistemas o carrera afín; mínimo 3 años de experiencia en administración de bases de datos SQL Server; dominio de SQL avanzado; experiencia en entornos SQL Server, GCP y On-Premise; experiencia en replicación, clustering y alta disponibilidad; herramientas de monitoreo y performance tuning; conocimiento en seguridad de datos. Deseable experiencia en entornos Cloud (GCP, AWS, Azure) y manejo de procedimientos almacenados y scripting. Proactividad, trabajo en equipo, orientación a resultados y capacidad de aprendizaje continuo.

Deseables

Experiencia adicional en entornos Cloud (GCP, AWS, Azure), scripting y automatización, conocimiento de DevOps y prácticas de seguridad avanzadas. Fuertes habilidades analíticas, de resolución de problemas y comunicación para interactuar con equipos de desarrollo y negocio.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2400 Full time
Ingeniero DevOps Semi Senior
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
DevOps Continuous Deployment Soporte técnico Cloud Computing
Genesys Tecnologías de Información SpA es una empresa con más de 35 años en el mercado, dedicada a desarrollo de software y servicios de TI. Contamos con una matriz en Concepción y operación en Santiago, y una sólida trayectoria en outsourcing, con foco en transformación digital y soluciones de datos. Buscamos incorporar a nuestro equipo técnico un Ingeniero DevOps Semi Senior para apoyar la operación de entornos de datos, la creación de pipelines y la automatización de infraestructuras para clientes de diversos sectores, apoyando proyectos de datos desde desarrollo, pruebas y producción. Formarás parte de una organización consolidada en Latinoamérica, con cultura de innovación, colaboración y mejora continua.

This posting is original from the Get on Board platform.

Funciones principales del rol

  • Soporte y operación de entornos de datos (dev, test y prod) para proyectos de datos.
  • Crear y mantener infraestructuras para proyectos de datos en la nube (BigQuery, GCS, Composer, Dataproc, redes, entre otros).
  • Diseñar, implementar y mantener pipelines CI/CD para despliegue de soluciones de datos.
  • Apoyar en el despliegue de nuevos proyectos de datos y en la gestión de cambios.
  • Automatización de infraestructura utilizando Terraform y gestión de configuraciones.
  • Gestión y ejecución de upgrades de componentes y recuperación ante incidentes de infraestructura.
  • Resolución de incidentes complejos en repositorios e infraestructuras.
  • Apoyo en pruebas de concepto (POCs) y evaluación de nuevas herramientas/ambientes (p. ej., CloudWatch, etc.).

Requisitos y habilidades

Buscamos un Ingeniero DevOps Semi Senior con al menos 3 años de experiencia en roles DevOps o similares, orientado a datos y nube. Competencias técnicas clave: experiencia en entornos cloud, diseño e implementación de pipelines CI/CD, automatización con Terraform, gestión de infraestructuras y mecanismos de observabilidad. Habilidades de análisis y resolución de problemas complejos, capacidad de trabajar de forma colaborativa con equipos de datos y desarrollo, y buena comunicación para soporte de operaciones. Se valorará experiencia en herramientas de monitorización y soluciones de datos en la nube, así como enfoque en buenas prácticas de automatización y observabilidad. Capacidad de aprendizaje, proactividad y orientación a resultados.

Requisitos deseables

Experiencia adicional en entornos cloud (GCP, AWS, Azure), manejo de herramientas de observabilidad (CloudWatch u otros), conocimiento de seguridad y gestión de credenciales, y experiencia en metodologías ágiles. Capacidad de trabajo en equipo, buenas habilidades de comunicación y orientación a la resolución de problemas complejos.

Beneficios y condiciones

Ofrecemos contrato a plazo fijo e indefinido en modalidad híbrida ( martes, miércoles y viernes; teletrabajo. Jornada de 09:00 a 18:30 de lunes a jueves y 09:00 a 16:00 los viernes. Ambiente de trabajo dinámico y colaborativo, con oportunidades de desarrollo profesional, formación continua y participación en proyectos desafiantes en Latinoamérica. Contamos con un equipo multidisciplinario y apoyo técnico constante entre las oficinas de Concepción y Santiago. Si te interesa crecer con nosotros, te invitamos a unirte a nuestro equipo.

VIEW JOB APPLY VIA WEB
Gross salary $2400 - 3200 Full time
Cloud Engineer AWS + Python
  • CoyanServices
Python Agile SQL Virtualization

CoyanServices ofrece una oportunidad 100% remota para profesionales en LATAM en modalidad freelance/tiempo completo orientada a migración y desarrollo de soluciones de automatización inteligente con IA. El proyecto principal se enfoca en la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure), con énfasis en IA y automatización cognitiva. Buscamos desarrollar agentes digitales, microservicios y APIs dentro del ecosistema AWS/Azure, integrando modelos de lenguaje (LLMs) y CI/CD para garantizar escalabilidad, rendimiento y cumplimiento en entornos ágiles. El rol colabora estrechamente con clientes y equipos de desarrollo para entregar soluciones robustas y operativas de alto impacto.

Apply to this job at getonbrd.com.

Objetivos del rol

  • Apoyar la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure) con enfoque en inteligencia artificial.
  • Desarrollar agentes digitales y microservicios que integren automatización, APIs y modelos de lenguaje (LLMs).
  • Implementar soluciones de IA conversacional y marcos de automatización cognitiva que optimicen procesos operativos.
  • Asegurar buenas prácticas de desarrollo, escalabilidad y cumplimiento dentro de metodologías ágiles.

Responsabilidades

  • Migrar procesos de Automation Anywhere hacia soluciones en AWS y Azure.
  • Desarrollar agentes digitales y automatizaciones con enfoque en Machine Cognitive Processing (MCP).
  • Crear microservicios y APIs dentro del ecosistema AWS (API Gateway, AppSync).
  • Diseñar e implementar prompts efectivos para integrar soluciones con LLMs (AWS Bedrock, Azure OpenAI).
  • Desplegar e integrar aplicaciones en AWS/Azure, garantizando su estabilidad y rendimiento.
  • Participar en el análisis de requerimientos del cliente y definición técnica de soluciones.
  • Aplicar buenas prácticas de desarrollo, versionamiento y metodologías ágiles (Scrum/Kanban).

Requisitos Técnicos

  • Lenguajes: Python (requerido)
  • Nube: AWS (requerido)
  • Experiencia en bases de datos SQL (requerido).
  • Experiencia en Automation Anywhere (deseable).
  • Conocimientos en AWS Connect, Lambda, Azure Cognitive Services (deseable).
  • Familiaridad con AWS Bedrock o Azure OpenAI para soluciones de IA conversacional (deseable).
  • Experiencia en NoSQL (deseable).
  • Conocimiento en procesos operativos y automatización.
  • Experiencia con CI/CD (CloudFormation) y despliegues en entornos cloud.
  • Metodologías ágiles (Scrum/Kanban).

Deseables

Perfil Profesional:

  • Experiencia: 3–5 años en desarrollo de software.

Habilidades blandas:

  • Autonomía y proactividad.
  • Capacidad analítica para la resolución de problemas.
  • Comunicación efectiva con clientes y equipos técnicos.
  • Adaptabilidad a nuevas tecnologías y entornos cambiantes.
  • Orientación al trabajo colaborativo y resultados.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3600 Full time
Technical Lead – Cloud Computing & Infrastructure AWS / GCP
  • Coderslab.io
Virtualization Amazon Web Services Docker Kubernetes

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Technical Lead – Cloud Computing & Infrastructure (AWS / GCP) to join our team and help drive our mission forward.

Official job site: Get on Board.

Funciones del cargo

General Purpose:
Lead the multi-cloud (AWS and GCP) computing strategy at Payless, optimizing infrastructure and enabling new capabilities for the omnichannel vision. The role aims to enhance customer centricity and improve the experience across both physical stores and e-commerce, ensuring resilience, cost efficiency, and business acceleration.

Key Responsibilities:

  • Design and evolve cloud-native architectures in AWS and GCP.
  • Implement best practices for cost optimization, security, and performance.
  • Enable new cloud capabilities to support the omnichannel strategy.
  • Lead the adoption of cloud-native development and deployment models (DevOps, Infrastructure as Code).
  • Collaborate with business, product, and IT teams to align infrastructure with corporate objectives.

Requerimientos del cargo

Technical Requirements:

  • Proven experience with AWS and GCP.
  • Knowledge of Kubernetes, Docker, Terraform/CloudFormation, and Infrastructure as Code (IaC).
  • Experience designing scalable, secure, and highly available architectures.
  • Advanced English proficiency.

Key Competencies:

  • Strategic thinking with a strong business vision.
  • Technical leadership and team management.
  • Clear and effective communication skills.

Condiciones

Location: Remote LATAM
Working Hours: Miami time
Language Requirements: Advanced English and Spanish
Service Type: Service Provision – 160 hours/month, Monday to Friday

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2300 Full time
DevOps Semi Senior
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Git DevOps Virtualization Amazon Web Services
Genesys Tecnologías de Inform. SpA es una empresa de desarrollo de software y servicios TI con más de 30 años de experiencia en el mercado latinoamericano. Nuestro objetivo es acompañar a las empresas en su Transformación Digital, brindando soluciones en desarrollo de software, monitoreo y mantenimiento de plataformas, IA, QA y servicios de outsourcing. Buscamos incorporar un Ingeniero DevOps Semi Senior para fortalecer nuestro equipo técnico en un entorno híbrido entre Concepción y Santiago, enfocado en garantizar la disponibilidad y rendimiento de nuestra plataforma web, APIs y servicios asociados, a través de prácticas de monitoreo, automatización y mejora continua.

© getonbrd.com.

Principales funciones

  • Implementar, configurar y mantener herramientas de monitoreo y alertas para todos los componentes de la plataforma web.
  • Monitorear el rendimiento de la infraestructura en la nube (AWS), APIs, servicios backend y aplicaciones frontend para garantizar alta disponibilidad y rendimiento.
  • Detectar, diagnosticar y resolver incidentes de disponibilidad o rendimiento de forma oportuna.
  • Colaborar con equipos de desarrollo, infraestructura y soporte para optimizar entornos de despliegue y operación.
  • Automatizar tareas de monitoreo, despliegue y gestión de incidentes cuando sea posible, promoviendo prácticas CI/CD.

Requisitos y perfil deseado

Buscamos un Ingeniero DevOps Semi Senior con al menos 2-3 años de experiencia en roles DevOps. Se valora sólida experiencia en servicios Cloud AWS y en monitoreo de plataformas web (Grafana, Prometheus, Datadog, New Relic u otras herramientas similares). Debe poseer conocimientos en CI/CD, Docker y control de versiones (Git). Capacidad para trabajar de forma colaborativa con equipos multidisciplinarios y para resolver problemas con pensamiento crítico y enfoque en la calidad.
Competencias clave: compromiso con la excelencia operativa, proactividad, buenas habilidades de comunicación, capacidad de trabajar en entornos dinámicos, orientación a la resolución de problemas y capacidad para gestionar múltiples prioridades. Se valorará experiencia en automatización de pipelines y experiencia en entornos híbridos o multi-nube.

Perfil deseable

Conocimientos adicionales en orquestación (Kubernetes), scripting (Python, Bash) y experiencia trabajando en proyectos de fábrica de software o outsourcing. Familiaridad con herramientas de gestión de incidentes, gestión de cambios y buenas prácticas de seguridad en la nube. Disponibilidad para operar en un entorno con matriz y coordinación entre sedes en Concepción y Santiago.

Beneficios

Ofrecemos contrato por proyecto con estabilidad y condiciones claras en un entorno laboral dinámico y colaborativo, enfocado en desarrollo profesional. Formarás parte de una empresa consolidada en Latinoamérica, con más de tres décadas de experiencia y un equipo multidisciplinario. Contamos con comunicación diaria con nuestra matriz y otras operaciones, lo que facilita la colaboración y el apoyo técnico. En Genesys, valoramos el talento y la innovación, y te acompañamos en tu crecimiento profesional. 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
QA Automatizador – Latam (, Proyecto)
  • BC Tecnología
JavaScript Java Python Git
En BC Tecnología somos una consultora de TI con experiencia en administrar portafolios, desarrollar proyectos y brindar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un QA Automatizador para LATAM, orientado a liderar iniciativas de automatización, promover cultura Shift Left y participar en pipelines CI/CD para garantizar QA continua en ecosistemas modernos. Colaborarás con equipos multidisciplinarios para entregar soluciones de software de alta calidad y mejorar procesos de pruebas a lo largo del ciclo de desarrollo.

Find this vacancy on Get on Board.

QA Automatizador – LATAM (Remoto, Proyecto)

  • Diseñar e implementar frameworks de automatización robustos para pruebas funcionales, de regresión, smoke y end-to-end (E2E).
  • Automatizar pruebas sobre microservicios, APIs y UI, asegurando cobertura adecuada y mantenimiento de las suites en pipelines CI/CD.
  • Gestionar ambientes con Docker y Kubernetes para entornos de pruebas consistentes y escalables.
  • Coaching al equipo de QA, revisión de pull requests y promoción de prácticas de calidad desde etapas tempranas (Shift Left).
  • Colaborar con equipos de desarrollo y DevOps para optimizar pipelines de integración y entrega continua (CI/CD) y mejorar la calidad del producto.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en automatización de pruebas y un historial comprobable en entornos modernos. Debe dominar herramientas como Playwright, Cypress, Selenium, Postman y frameworks como Robot Framework o similares. Experiencia con REST APIs, pruebas en contenedores (Docker) y orquestación (Kubernetes) es imprescindible. Conocimientos en Java, JavaScript, TypeScript, Python o Bash para scripting y mantenimiento de pruebas. Familiaridad con herramientas de CI/CD (GitHub Actions, Jenkins, GitLab CI, Bitbucket) y gestión de código en repositorios (Git). Capacidad para comunicarse efectivamente en español e inglés técnico, y habilidades para trabajar en entornos dinámicos y orientados a resultados. Se valorarán experiencia en AWS o tecnologías cloud y capacidad de liderazgo técnico dentro de equipos de QA.

Requisitos deseables

Conocimientos en herramientas de testing de rendimiento y seguridad, experiencia en automatización en entornos multi-nube, certificaciones en calidad de software y familiaridad con metodologías ágiles. Capacidad para adaptar frameworks a nuevas tecnologías y promover una cultura de calidad y mejora continua. Se valorará experiencia en equipos que trabajan en sectores regulados y con alta exigencia de cumplimiento.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer / Cloud Engineer (Latam)
  • BC Tecnología
Python Linux DevOps Virtualization
BC Tecnología, una consultora de TI con experiencia en servicios, outsourcing y selección de profesionales, busca ampliar su equipo con un DevOps Engineer / Cloud Engineer para un proyecto inicial de 6 meses con posibilidad de extensión. El rol contribuirá a la estabilidad y rendimiento de plataformas en producción, trabajando en colaboración con Desarrollo y Seguridad, en un entorno de clientes de alto nivel y diversos sectores (finanzas, seguros, retail y gobierno).

Send CV through Get on Board.

Funciones

  • Garantizar la disponibilidad, estabilidad y rendimiento de sistemas productivos.
  • Gestionar infraestructura como código y automatizar despliegues.
  • Administrar contenedores y clusters Kubernetes.
  • Implementar monitoreo y alertas (Prometheus, CloudWatch, Grafana).
  • Organizar respuestas a incidentes y participar en post-mortems para mejora continua.
  • Trabajar estrechamente con Desarrollo y Seguridad para optimizar la arquitectura.
  • Documentar runbooks y procedimientos operativos para soporte y escalamiento.

Requisitos y perfil

Ingeniería en Informática, Sistemas o similar. Mínimo 3 años en roles DevOps, Cloud u Operations. Sólido dominio de Linux/UNIX, redes y conceptos de seguridad. Experiencia en arquitecturas de alta disponibilidad y gestión de incidentes. Se valora experiencia con entornos en la nube (AWS, Azure, GCP) y herramientas IaC (Terraform, CloudFormation, Ansible). Conocimientos en contenedores (Docker) y orquestación (Kubernetes). Habilidades de scripting (Bash, Python; PowerShell deseable). Capacidad para trabajar de forma proactiva, con buena comunicación y enfoque colaborativo.

Deseables

Certificaciones relevantes en nube (AWS/Azure/GCP) y DevOps; experiencia en entornos regulados; experiencia en monitoreo avanzado (ELK, Datadog) y gestión de costos en la nube. Orientación a soluciones y capacidades de análisis para resolver incidentes de manera eficiente; habilidades de documentación y entrega de runbooks claros.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4200 Full time
Senior DevOps Engineer
  • Checkr
  • Santiago (Hybrid)
Linux DevOps Virtualization Amazon Web Services

Checkr está creando una plataforma de datos para facilitar la toma de decisiones seguras y justas. Fundada en 2014, la tecnología innovadora y la sólida plataforma de datos de Checkr ayudan a los clientes a evaluar riesgos y garantizar seguridad y cumplimiento normativo para crear lugares de trabajo y comunidades de confianza. Checkr cuenta con más de 100.000 clientes, entre los que se incluyen DoorDash, Coinbase, Lyft, Instacart y Airtable. Como Senior DevOps, trabajarás en estrecha colaboración con nuestros equipos de plataforma para crear y ejecutar los componentes que impulsan Checkr. Permitirás que todos los equipos asuman responsabilidad colectiva de la confiabilidad, escalabilidad y rendimiento de su software. También guiarás a otros equipos en el ajuste de sus servicios, lo que se traducirá en una mayor solidez y eficiencia, garantizando que cada equipo pueda centrarse en crear un software superior respaldado por una infraestructura confiable, escalable y eficiente

Apply directly on Get on Board.

Job functions

  • Crear, mantener, optimizar y ampliar la infraestructura en la nube y local de Checkr.
  • Mejorar las operaciones y los procesos de infraestructura mediante la automatización y el uso de herramientas.
  • Optimizar los procesos de CI/CD y las herramientas de DevOps.
  • Depurar problemas de producción en todos los servicios y niveles de la pila.
  • Garantizar la escalabilidad y la seguridad de la infraestructura de Checkr.
  • Colaborar con los desarrolladores de aplicaciones para garantizar las mejores prácticas y el uso eficiente de la infraestructura.
  • Crear y fomentar relaciones de colaboración con otros equipos de ingeniería y líderes.
  • Planificar el crecimiento de la infraestructura de Checkr.

Qualifications and requirements

  • Licenciatura en Informática (o campo relacionado)
  • Más de 5 años de experiencia como ingeniero de DevOps o experiencia relacionada
  • Experiencia en el diseño de arquitectura técnica y la creación de una hoja de ruta estratégica para hacer realidad una visión técnica
  • Experiencia con Linux, Kubernetes, Terraform y AWS o Azure
  • Experiencia con contenedores y orquestación de contenedores
  • Conocimientos avanzados de TCP/IP, seguridad de aplicaciones web y HTTP/HTTPS
  • Tus planes de reversión son tan meticulosos como tus planes de implementación.
  • Experiencia en impulsar la adopción de plataformas con diversos equipos de ingeniería de productos, guiado por un enfoque de autoservicio y prioridad del producto.
  • Capacidad, disposición y deseo de orientar y mejorar a ingenieros de infraestructura con menos experiencia.
  • Pasión por la orientación al cliente y el establecimiento de relaciones con otros equipos.
  • Compromiso inquebrantable con la seguridad operativa y las mejores prácticas.

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4500 Full time
Senior AWS Engineer (Night Shift)
  • Niuro
Python Linux DevOps Continuous Integration
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Apply to this posting directly on Get on Board.

Key Responsibilities

  • Design, deploy, and maintain AWS infrastructure aligned with best practices for scalability, availability, and security.
  • Configure and manage Auto Scaling groups, EC2 instances, RDS databases, and CloudFront distributions.
  • Automate infrastructure provisioning and updates using Terraform.
  • Monitor and optimize system performance through metrics, alerts, and dashboards.
  • Manage FSx file systems, ensuring efficient performance and integration with Windows environments.
  • Collaborate with cross-functional teams to troubleshoot, optimize, and deliver stable infrastructure solutions.
  • Maintain detailed documentation of configurations, processes, and policies.

Requirements & Experience

Minimum 12+ years of proven experience in systems or cloud engineering roles, with 10+ years focused on AWS at scale. Strong expertise in Auto Scaling, Terraform, EC2, FSx, CloudFront, RDS, and monitoring/alerts. AWS Certification (Architect or equivalent) is required. Proficiency in Windows environments (not Linux) and fluent English with professional communication skills to coordinate across international teams.
Nice to Have: experience with Azure or GCP, CI/CD tools (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting with Python or PowerShell, and exposure to cloud security, governance, and compliance frameworks.

Nice to Have

Additional exposure to Azure or GCP cloud platforms, familiarity with CI/CD pipelines (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting in Python or PowerShell, and knowledge of cloud security, governance, and compliance frameworks are highly desirable.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero Senior en Automatización de Pruebas
  • CoyanServices
JavaScript Java Python Agile
CoyanServices busca un Ingeniero Senior en Automatización de Pruebas para trabajar 100% remoto en modalidad freelance. El proyecto se enmarca dentro de una iniciativa regional de QA Automation que abarca la automatización de pruebas para UI, backend y APIs, con un foco en garantizar la calidad y la trazabilidad de soluciones digitales a lo largo de pipelines CI/CD. El equipo es distribuido regionalmente y colabora con áreas de negocio en varios países de Latinoamérica. El profesional será referente técnico en QA Automation, promoviendo prácticas DevOps, integración de pruebas en despliegues y mejora continua, con interacción constante entre IT y negocio. El rol implicará liderar, diseñar y mantener estrategias de automatización, definir criterios de aceptación de pruebas y asegurar que el producto cumpla con los requerimientos funcionales y las reglas de negocio definidas.

Applications are only received at getonbrd.com.

Objetivos del rol:

  • Diseñar, implementar y mantener automatización de pruebas end-to-end (UI, backend y APIs) dentro de pipelines CI/CD.
  • Asegurar la calidad, trazabilidad y cobertura de las soluciones digitales de la compañía.
  • Ser referente técnico en QA Automation, promoviendo la adopción de prácticas DevOps y cultura de mejora continua.
  • Colaborar con equipos distribuidos regionalmente para garantizar la calidad en todas las etapas del desarrollo.

Perfil y habilidades requeridas:

Requisitos técnicos:
  • Experiencia ≥5 años en QA Automation con enfoque en UI, backend y APIs.
  • Lenguajes y frameworks: Python, Node.js, TypeScript, Java; Jest, Pytest, unittest, JUnit/TestNG.
  • UI Testing: Cypress, Playwright, React Testing Library, Jest, Jasmine o Karma (al menos dos).
  • API Testing: Postman/Newman, Karate DSL, REST Assured.
  • Gestión de pruebas de rendimiento (deseable): Artillery, JMeter o k6.
  • Infraestructura y CI/CD: GitHub Actions, Docker, LocalStack (opcional), Terraform, CloudFormation, SAM.
  • Cloud: AWS (obligatorio).
  • Gestión y calidad: Jira, Confluence, Xray/Zephyr, SonarQube.
  • Métodos: Agile/Scrum y DevOps.
Habilidades blandas:
  • Capacidad de análisis y pensamiento crítico.
  • Liderazgo técnico y mentoring.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Compromiso con la mejora continua y la calidad.

Habilidades blandas:

Habilidades blandas:
  • Capacidad de análisis
  • Liderazgo técnico y mentoría.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Orientación a la mejora continua y cultura de calidad.

Beneficios y cultura

Objetivos del rol:
Beneficios y cultura de CoyanServices (basado en el formato proporcionado y adaptado al contexto remoto):
  • Modalidad freelance 100% remoto, con flexibilidad horaria y posibilidad de colaborar con equipos de distintos países.
  • Participación en proyectos regionales con enfoque en QA Automation de alto impacto.
  • Acceso a herramientas de prueba modernas, pipelines CI/CD y entornos reproducibles con Docker y LocalStack.
  • Ambiente de trabajo colaborativo, con énfasis en mejora continua, DevOps y buenas prácticas de calidad.
  • Oportunidad de crecimiento técnico y mentoría para otros ingenieros del equipo.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2500 Full time
DevOps Senior Freelance
  • CoyanServices
JavaScript Python Redis Node.js

Coyan Services es una empresa latinoamericana especializada en soluciones de staffing tecnológico y consultoría de talento IT. Operamos en diferentes países de LATAM conectando profesionales altamente calificados con proyectos de innovación en empresas multinacionales.
Nuestra visión es ser un puente entre el mejor talento de la región y las organizaciones que están transformando el futuro con tecnología, impulsando equipos diversos, remotos y con cultura de colaboración.

Una empresa tecnológica privada busca incorporar un/a DevOps para trabajar en un proyecto estratégico con uno de sus clientes en la región. La posición es 100% remota, en modalidad freelancer, y está abierta a profesionales de cualquier país de Latinoamérica.

Apply to this job at getonbrd.com.

Objetivos y Responsabilidades

Objetivos del rol:

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD).
  • Integrar prácticas DevOps en el ciclo de vida del desarrollo de software en conjunto con los equipos de desarrollo.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Garantizar la disponibilidad, seguridad y rendimiento de los sistemas en la nube.

Responsabilidades:

  • Diseñar, implementar y mantener pipelines CI/CD.
  • Colaborar con equipos de desarrollo en la adopción de prácticas DevOps.
  • Automatizar infraestructura y despliegues con IaC.
  • Administrar y mantener la infraestructura en AWS y servidores.
  • Monitorear y mejorar disponibilidad, rendimiento y seguridad.

Requisitos Técnicos

  • Experiencia sólida (3+ años) administrando servicios en AWS (Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, S3, EC2, ECS, Secret Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions).
  • Experiencia en infraestructura como código (Terraform y CloudFormation – excluyentes).
  • Experiencia en despliegue de aplicaciones móviles offline.
  • Uso de GitHub (gestión de código fuente) y GitHub Actions (automatización de despliegues).
  • Experiencia en análisis de código estático con SonarCloud.
  • Desarrollo en Python y Node.js con enfoque operacional.
  • Conocimientos en SQL, bases de datos transaccionales, NoSQL y bases embebidas.

Habilidades blandas

  • Trabajo en equipo y colaboración.
  • Autogestión y proactividad.
  • Comunicación efectiva.

Conditions

  • Freelancer

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
SRE Semi Senior
  • TCIT
  • Santiago (Hybrid)
Python Linux Go DevOps

En TCIT, lideramos proyectos de Ingeniería y Automatización para avanzar en la fiabilidad y escalabilidad de nuestras plataformas en la nube. Buscamos profesionales SRE con interés en colaborar estrechamente con equipos de desarrollo y de operaciones para construir y fortalecer pipelines de CI/CD, infraestructuras declarativas con IaC (principalmente Terraform) y soluciones de observabilidad. Formarás parte de iniciativas que abarcan desde la implementación de prácticas de resistencia hasta la mejora continua de runbooks y procesos de incidentes, con foco en la mejora de la SRE Gobierno y la entrega de servicios robustos para clientes internos y externos. Si te apasiona la confiabilidad, la automatización y el trabajo en equipo, eres la persona indicada para unirte a TCIT y acompañar nuestra misión de transformar digitalmente a través de soluciones innovadoras.

Apply to this posting directly on Get on Board.

Funciones y responsabilidades principales

  • Ingeniería Práctica: Desarrollar y mantener pipelines de CI/CD, desplegar infraestructura con Terraform y escribir scripts (Python/Go/Bash) para automatizar tareas operativas.
  • Configuración de observabilidad: Implementar dashboards, alertas y logs en Datadog para nuevos y existentes servicios basándose en SLOs definidos.
  • Operación y Soporte: Participar en guardias on-call, resolver incidentes y apoyar a los equipos de desarrollo aplicando prácticas de fiabilidad.
  • Ejecutar y mejorar runbooks, participar en análisis post-mortem y proponer acciones de mejora para aumentar la resiliencia del sistema.
  • Colaboración y transferencia de conocimiento: Actuar como par técnico para SREs en formación, documentar procedimientos y participar en PRRs para validar implementaciones.
  • Trabajar de forma colaborativa en equipo, compartiendo buenas prácticas y asegurando que las soluciones queden bien documentadas y fáciles de mantener.

Descripción y requisitos técnicos

Buscamos SREs intermedios con experiencia sólida en entornos en la nube y un fuerte enfoque en fiabilidad y automatización. Requisitos clave:

  • Plataformas Cloud: experiencia práctica en Google Cloud Platform (GKE, IAM, GCE, Cloud SQL); experiencia deseable en AWS.
  • IaC y Automatización: Terraform como herramienta principal; experiencia con Ansible o similar es un plus.
  • Programación y scripting: Python o Go para automatización; Bash para scripting en Linux.
  • Contenedores y orquestación: Kubernetes (deployments, services, ingress, configmaps, secrets) y Docker.
  • CI/CD y DevOps: experiencia en pipelines con GitLab CI, Jenkins o Bitbucket Pipelines.
  • Observabilidad y monitoreo: Datadog (preferido), Prometheus/Grafana u otros; comprensión de logs, métricas y trazas.
  • Habilidades blandas: excelente trabajo en equipo, comunicación clara, proactividad y autonomía en tareas definidas.

Además, valoramos la capacidad de colaborar en documentos técnicos, participar en PRRs y apoyar a SREs en formación a través de prácticas de liderazgo situacional.

Requisitos deseables y cualidades

Se valorará experiencia adicional en desarrollo de software, experiencia en migraciones a la nube, conocimiento de herramientas de automatización avanzada y una mentalidad de mejora continua. Se espera que los candidatos demuestren adaptabilidad, habilidades para resolver problemas complejos y capacidad para priorizar en entornos dinámicos y de alta presión.

Beneficios y cultura

En TCIT, garantizamos un ambiente laboral enriquecedor con:

  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉

Si te sumas a TCIT, formarás parte de una comunidad apasionada por la revolución digital y proyectos con impacto social.

VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
DevOps AWS Opensearch/Elasticsearch & Containers Engineer
  • Coderslab.io
DevOps Virtualization Amazon Web Services Microservices

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Devops - AWS OpenSearch/ElasticSearch & Containers Engineer to join our team and help drive our mission forward.

Exclusive to Get on Board.

Funciones del cargo

Role Purpose

Design, implement, and optimize AWS-based solutions focused on OpenSearch/ElasticSearch and containers (ECS/EKS) to support Payless’ omnichannel operations in retail and e-commerce. The role ensures efficient data pipelines, scalable microservices, and robust search capabilities integrating SAP HANA, Retail Pro, e-commerce, POS, and the AWS ecosystem.

Key Responsibilities

  • Deploy, manage, and optimize AWS OpenSearch/ElasticSearch clusters, ensuring performance and high availability.
  • Design and maintain data pipelines for log processing, analytics, and search-driven applications.
  • Manage workloads in Amazon ECS/EKS, ensuring deployment, scaling, and resilience of microservices.
  • Integrate search and container solutions with critical platforms: SAP HANA, Retail Pro, e-commerce, WMS, and CRM.
  • Implement monitoring, alerting, and automated recovery mechanisms for production environments.
  • Optimize costs, performance, and scalability across AWS architectures.
  • Collaborate closely with cloud architects, data engineers, and developers to ensure reliable and scalable digital services.

Requerimientos del cargo

  • Bachelor’s degree in Computer Science, Systems Engineering, or related fields (or equivalent experience).
  • 5+ years of experience in DevOps/Cloud roles with production projects in AWS.
  • Proven experience with OpenSearch/ElasticSearch and ECS/EKS implementations.
  • Strong ability to optimize performance and costs in enterprise cloud environments.
  • Advanced English (spoken and written) and fluent Spanish.

Opcionales

  • Experience integrating cloud architectures with retail and e-commerce systems.
  • Familiarity with SAP HANA, Retail Pro, POS, and inventory/CRM platforms.
  • Knowledge of IaC (Infrastructure as Code) and automation in AWS.
  • Proficiency with monitoring and logging tools (CloudWatch, Prometheus, Grafana, Kibana).

Condiciones

Location: Remote (LATAM)
Schedule: Miami time (Monday to Friday, 160 hours/month)
Contract: 12 months – Service contract
Languages: Advanced English & Spanish

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Ingeniero/a DevOps
  • Devups
Agile DevOps Continuous Integration Virtualization
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Apply to this job opportunity at getonbrd.com.

Job functions

  • Diseñar e implementar pipelines de CI/CD junto al PM asignado.
  • Colaborar con equipos de desarrollo en la automatización de pruebas y despliegues.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de infraestructuras y aplicar patrones comprobados de IaC y orquestación. Deberá tener experiencia optimizando performance y seguridad en pipelines de CI/CD, así como la capacidad para comunicar claramente retos técnicos complejos. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Herramientas CI/CD:
  • Jenkins
  • GitLab CI/CD
  • GitHub Actions
Contenedores y Orquestación:
  • Docker
  • Kubernetes
Infraestructura como Código (elige uno):
  • Terraform
  • CloudFormation

Desirable skills

  • Experiencia en AWS Services (EKS, ECS, Lambda) o Azure DevOps.
  • Monitoreo y logging con Prometheus, Grafana o ELK.
  • Conocimientos de Networking y seguridad en la nube.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2200 - 2500 Full time
Data & BI Engineer
  • Lythium
  • Puerto Varas (Hybrid)
Python Data Analysis SQL Business Intelligence

Estamos optimizando la industria de alimentos mediante Visión Artificial, lo que nos permite capturar millones de datos críticos en el ciclo productivo. Nuestro gran desafío hoy es la escalabilidad y la autonomía técnica de datos. Actualmente, necesitamos migrar procesos manuales antiguos hacia flujos automáticos y centralizar toda nuestra arquitectura de datos en Google Cloud (BigQuery) para asegurar que la información sea íntegra y confiable antes de que llegue al cliente.

Apply to this posting directly on Get on Board.

Funciones del cargo

Ingeniería y Gestión de Datos:

  1. Centralizar y modelar nuestros datos en GCP (BigQuery).
  2. Crear y mantener scripts (Python/SQL) para automatizar la extracción y limpieza de datos (ETL) desde nuestros sistemas de visión artificial.
  3. Asegurar que la data sea íntegra y confiable (si hay un error, tú lo detectas antes que el cliente).
  4. Migrar procesos manuales antiguos a flujos automáticos y escalables.

Visualización y Negocio:

  1. Desarrollar dashboards dinámicos (Power BI, excluyente) que consuman directamente de tu base de datos optimizada.
  2. Traducir la data técnica en valor: ayudar a clientes y al área comercial a entender qué está pasando en sus procesos productivos.
  3. Apoyar al equipo comercial validando la data para nuevos features o cobros por consumo.

Requerimientos del cargo

  • Experiencia: De 1 a 3 años trabajando con datos ( Es el rol ideal para un Data Engineer, Analista BI Técnico , o rol afín).
  • Técnico (Excluyente):
    • SQL Sólido: Sabes hacer consultas complejas, y entiendes cómo estructurar una tabla optimizada.
    • Python: Eres capaz de escribir scripts para mover datos de un API/Archivo a una base de datos bajo una arquitectura sólida.
  • Nube: Conocimiento y muchas ganas de seguir aprendiendo a fondo GCP (BigQuery). Si vienes de Azure o AWS también eres bienvenido. (En la generalidad del proceso usamos las tres).
  • Perfil: Autogestión total. No necesitas que te digan qué hacer cada mañana; ves un problema de datos y lo solucionas.

Opcionales

Para destacar en este proceso, valoraremos positivamente que cuentes con:

  • Dominio avanzado de Google Cloud Platform (GCP): Aunque aceptamos experiencia en otras nubes , el manejo fluido de BigQuery y el ecosistema de datos de Google nos permitirá acelerar la migración.
  • Análisis de modelos de IA: Experiencia comprobable analizando y validando datos provenientes de modelos de Inteligencia Artificial o Visión Artificial, asegurando que los resultados técnicos se traduzcan en valor de negocio.
  • Visualización avanzada: Además del manejo excluyente de Power BI, se valorará el conocimiento en herramientas como Grafana para el monitoreo de datos en tiempo real.
  • Metodologías Ágiles: Experiencia trabajando bajo el marco de Scrum, ideal para integrarte a nuestra cultura horizontal y de ejecución rápida.
  • Mentalidad de Startup: Haber trabajado previamente en entornos de crecimiento rápido o startups, donde la autogestión total y la proactividad para resolver problemas de datos son fundamentales.

Beneficios

  • Modalidad de trabajo: Híbrida, con base en Puerto Varas. Si bien la presencialidad es siempre opcional, creemos en el crecimiento que da la presencialidad las primeras semanas.
  • Autonomía Radical: Horario basado en objetivos. Tienes la libertad de manejar tus propios tiempos y días libres con responsabilidad.
  • Bienestar Total: Seguro complementario de salud y dental (incluye cobertura para pareja e hijos).
  • Vida Saludable: Convenio de acceso a cadenas de gimnasios y apps de salud. Además sesiones con expertos en salud mental, guía financiera y nutricional.
  • Ambiente: Oficina con snacks, equipo joven y línea directa con gerencias y fundadores para proponer ideas y ejecutar rápido.
  • Compromiso Mutuo: Ofrecemos indemnización a todo evento. Esto significa que, si decides emprender un nuevo camino o sientes que ya no hay match, te vas con tu indemnización correspondiente. Valoramos la honestidad y queremos que tu permanencia sea siempre una elección voluntaria y motivada.

VIEW JOB APPLY VIA WEB
$$$ Full time
Database Lead Architect – Clinical Trial Systems (Azure/aWS)
  • Signant Health
Python Linux Virtualization Amazon Web Services

Want to do the Best Work of Your Life?

Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations and reimagining the path to proof.

Where do you fit in?
We are seeking a highly experienced Lead Cloud OperationsDatabase Architect to design, implement, and govern our enterprise data architecture that supports regulated clinical research systems. This role is responsible for all database-related aspects across Microsoft Azure and AWS cloud environments, ensuring performance, security, and compliance with GxP, FDA 21 CFR Part 11, and ICH-GCP regulations. The ideal candidate combines deep technical expertise in MS SQL, Azure SQL, AWS RDS, and Cloud SQL platforms in high volume production environment with strong leadership in data governance, architecture design, and lifecycle management.

Apply without intermediaries from Get on Board.

Job functions

  • Architecture & Design:
    Develop and maintain enterprise-scale data architectures supporting clinical trial systems, ensuring high availability, scalability, and security across Azure and AWS environments.
  • Database Administration & Operations:
    Oversee all aspects of database setup, configuration, backup/recovery, replication, and performance optimization for MS SQL, Azure SQL, Cloud SQL, and RDS instances.
  • Regulatory Compliance:
    Establish and enforce database procedures aligned with clinical and regulatory frameworks (e.g., GxP, 21 CFR Part 11). Partner with QA/Compliance to support audits and validation activities.
  • Security & Data Integrity:
    Implement robust access controls, encryption, monitoring, and logging mechanisms to safeguard sensitive clinical and patient data.
  • Automation & DevOps Integration:
    Automate database provisioning, patching, and schema deployments via CI/CD pipelines and Infrastructure as Code (IaC) tools (e.g., Terraform, OpenTofu, ARM templates, AWS CloudFormation).
  • Cross-Functional Leadership:
    Collaborate closely with Engineering, Project Management and Compliance teams to align data strategies across the enterprise.
  • Monitoring & Optimization:
    Design and implement proactive alerting, capacity planning, and performance tuning to maintain system reliability and speed.
  • Documentation & Standards:
    Maintain detailed architecture diagrams, SOPs, and technical documentation to support validation and internal audits.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Systems, or related field (Master’s preferred).
  • 10+ years in database architecture/administration, including 5+ years in cloud environments (Azure/AWS).
  • Expertise with MS SQL Server, Azure SQL Database and AWS RDS including strong proficiency in SQL queries and stored procedures
  • Proven experience supporting regulated (GxP/FDA) environments.
  • Strong understanding of data security, governance, and compliance in life sciences or healthcare settings.
  • Proficiency with IaC tools, monitoring platforms (CloudWatch, Azure Monitor), and automation scripting (PowerShell, Python, or Bash).
  • Strong communication skills and experience engaging with cross-functional technical and clinical teams.

Desirable skills

  • Experience integrating with clinical data systems (CDMS, EDC, LIMS).
  • Familiarity with Snowflakedatalake architectures and ETL/ELT pipelines.
  • Certifications in Azure Database Administrator, AWS Database Specialty, or equivalent cloud credentials.

Conditions

Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer – Sas/SQL Migration
  • WiTi
  • Santiago (Hybrid)
Python SQL Virtualization Big Data
En WiTi lideramos un proyecto estratégico de migración de un ecosistema analítico legado hacia una arquitectura moderna en la nube sobre AWS.
El objetivo es estandarizar, optimizar el rendimiento y escalar la operación, trasladando lógica SAS y SQL no estándar a SQL estándar para Amazon Redshift. Este esfuerzo involucra automatización para acelerar la migración, reducción de errores y una alta interacción con equipos de data, BI y TI para asegurar trazabilidad, reproducibilidad y gobernanza de datos a nivel enterprise.
Serás parte de un equipo multidisciplinario que diseña y ejecuta la migración de punta a punta, estableciendo reglas de conversión, pipelines, controles de calidad y guías de codificación reutilizables. El proyecto ofrece visibilidad transversal sobre ETL/ELT y buenas prácticas de gobierno de datos en un entorno cloud escalable.

Applications at getonbrd.com.

Funciones del cargo

  • Analizar programas existentes en SAS, incluyendo SAS SQL no estándar y estructuras propias del entorno (macros, data steps, librerías, jobs).
  • Convertir y reescribir lógica desde SAS a SQL estándar compatible con Amazon Redshift, cuidando equivalencia funcional y performance.
  • Definir un enfoque repetible para migrar grandes volúmenes de programas: reglas, patrones de conversión y estándares de codificación.
  • Automatizar el proceso de transformación mediante scripts, reglas de conversión, validaciones automáticas, templates o pipelines.
  • Trabajar con procesos ETL/ELT en AWS, integrándose con el stack del cliente (fuentes, cargas, transformaciones, orquestación, monitoreo).
  • Validar equivalencia funcional entre SAS y Redshift mediante reconciliaciones de datos, controles de calidad y monitoreo.
  • Documentar reglas de conversión, decisiones técnicas y casos borde para un proceso mantenible y auditable.
  • Colaborar con data y TI para asegurar trazabilidad, reproducibilidad y rendimiento del data warehouse en la nube.

Perfil y requisitos

Buscamos un Data Engineer con experiencia sólida en migraciones de SAS hacia entornos cloud, especialmente Amazon Redshift, y con fuerte capacidad para optimizar consultas, diseñar estrategias de conversión y liderar iniciativas de calidad de datos. Deberás combinar habilidades técnicas avanzadas con capacidad de trabajo colaborativo en un entorno enterprise.
  • SQL avanzado (queries complejas, optimización de performance, joins pesados, window functions/CTEs), lectura e interpretación de planes de ejecución.
  • Experiencia demostrada trabajando con SAS (lectura y mantención de programas, entendimiento de SAS SQL y su lógica de procesamiento).
  • Experiencia práctica con Amazon Redshift: diseño y escritura de SQL, buenas prácticas de rendimiento y modelado en Redshift.
  • Conocimiento de ETL/ELT en AWS (p. ej., Glue, Lambda, Step Functions) y otras herramientas de orquestación.
  • Experiencia en contextos enterprise centrada en calidad, trazabilidad, documentación y resultados reproducibles.
migraciones desde SAS u otras tecnologías legacy hacia cloud data warehouses (Redshift, Snowflake, BigQuery), automatización de migraciones, Python u otros lenguajes de scripting para tooling, gobernanza de datos (naming conventions, documentación funcional/técnica, data quality checks) y monitoreo.

Requisitos deseables

Se valorará experiencia previa migrando desde tecnologías legacy hacia cloud data warehouses (SAS, otros) y participación en automatización de migraciones. Conocimientos de Python u otros lenguajes de scripting para apoyar automatización y tooling interno, así como experiencia en gobernanza de datos (naming conventions, documentación, data quality checks y monitoreo).

Beneficios

En WiTi fomentamos una cultura de aprendizaje y colaboración, con foco en proyectos digitales y de datos de alto impacto. Entre los beneficios se incluyen:
  • Plan de carrera personalizado orientado a desarrollo en data, cloud y analítica.
  • Certificaciones para continuar creciendo en tu carrera (AWS, data, analítica).
  • Cursos de idiomas para desarrollo personal y profesional.
Modalidad híbrida en Las Condes, Santiago, con flexibilidad para coordinar con equipos y stakeholders. Participación en un proyecto estratégico de transformación de datos con alta visibilidad interna y contacto directo con equipos de data, BI y tecnología. Política de trabajo remoto Híbrido; se combine trabajo remoto y días en oficina.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $1200 - 1900 Full time
Data Scientist
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Data Analysis Marketing
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply to this job directly at getonbrd.com.

Funciones del cargo

▪ Utilize advanced Python programming skills to design, develop, and deploy machine learning models and algorithms for various business use cases.

▪ Develop Machine Learning techniques such as regression, classification, clustering, and deep learning

▪ Ensure the availability, quality, and security of data used for analysis and modeling

▪ Investigate and interpret data to identify actionable insights and opportunities for improvement

▪ Work with cross-functional teams to implement data-driven solutions and drive business growth

▪ Manage client relationships effectively, including conducting meetings, understanding client requirements, and delivering solutions that meet or exceed expectations.

▪ Lead efforts to expand business opportunities by identifying new avenues for data-driven insights and solutions.

▪ Research and devise innovative statistical models for data analysis

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organzation to the next level

Requerimientos del cargo

▪ Bachelor's degree in Computer Science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred

▪ Minimum of 1+years of experience in a data science domain or related role.

▪ Proficiency in Python for data manipulation, analysis, and model development.

▪ Data Science libraries (such as NumPy, Pandas, Scikit-Learn, TensorFlow, or PyTorch)

▪ Advanced SQL skills for data extraction, transformation, and analysis.

▪ Strong experience in Lifecycle of a Data Science Modelling project

▪ Strong knowledge and practical experience in Machine Learning techniques and frameworks such as such as regression, classification, clustering, and deep learning.

▪ Strong knowledge in Statistics, ML and LLM/Gen AI

▪ Proven track record of successfully managing client relationships and delivering value-added solutions

▪ Experience in building Reporting Dashboards in any of the BI Tools is good to have: Power BI, Tableau, Looker

▪ Familiarity with any could platform such as Azure, AWS, GPC

▪ Expert in Analytics solutions such as Marketing, Predictive Order, Segmentation, Promotion, Hyper-personalization, forecasting, Pricing Analytics development is a plus

▪ Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

▪ Excellent Stakeholder communication and proactive problem-solving

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Engineer (AWS, Power Apps/Power BI)
  • Niuro
Python SQL Virtualization Amazon Web Services
Niuro connects projects with elite tech teams to accelerate delivery for leading U.S. companies. We are building out an internal data initiative focused on data delivery and pipeline development to empower digital products and decision-making tools. Our data engineering team operates under a demand-based model, delivering end-to-end data workflows that ingestion data from multiple sources, transform and unify it on AWS-based platforms, and make high-quality data accessible to business applications and reporting tools. This project emphasizes autonomous, high-quality data pipelines, cross-functional collaboration with product and business teams, and alignment with internal data strategy to enable operational efficiency and timely insights across the organization.

Apply to this job through Get on Board.

Key Responsibilities

  • Ingest, process, and transform data from multiple source systems into existing AWS-based data platforms (e.g., Lambda, S3, Glue).
  • Design and maintain data integration flows for movement between source and target systems, following established standards and frameworks.
  • Ensure data delivered to Power Apps applications and Power BI reports meets quality, consistency, and timeliness requirements.
  • Collaborate with product and business teams to identify data needs, evaluate source systems, and assess constraints (update frequency, known issues).
  • Build data engineering solutions aligned with internal data strategy while maintaining autonomy and meeting timelines.
  • Work with dbt for data modeling and transformations; utilize Airflow for workflow orchestration; leverage Snowflake in production environments.

Role Overview

We are seeking a seasoned Data Engineer to join a data engineering team that supports a new internal initiative focused on data delivery and pipeline development. The ideal candidate will own end-to-end data workflows from source ingestion to consumption by Power Apps and Power BI, operating with minimal supervision. You will contribute to the reliability and scalability of AWS-based data platforms, ensure data quality for business applications, and partner with product and business teams to translate data needs into robust data pipelines. This role requires strong hands-on experience with AWS services, advanced SQL, Python for data processing, and experience with modern data tooling (dbt, Airflow, Snowflake).

Desirable Qualifications

  • Experience with data governance and data quality frameworks.
  • Experience with other cloud data platforms (e.g., Redshift, BigQuery) and data visualization patterns.
  • Strong communication skills and ability to translate technical concepts for non-technical stakeholders.
  • Familiarity with Power Apps customization and Power BI advanced features.

Benefits & Collaboration

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Científico de Datos
  • Vemo México
  • Ciudad de México (In-office)
Python Excel SQL Business Intelligence

En VEMO México estamos impulsando la movilidad limpia combinando tecnología, datos y energía sostenible. Construimos productos digitales y plataformas que soportan toda la operación de electromovilidad en LATAM. Somos una empresa en crecimiento que trabaja con metodologías ágiles, prioriza la innovación y fomenta una cultura de aprendizaje continuo y mentalidad de producto. El rol del Científico de Datos consiste en transformar datos complejos en insights accionables, desarrollando modelos predictivos y algoritmos avanzados que impulsen la toma de decisiones estratégicas, optimicen procesos y generen ventajas competitivas para la organización.

Apply exclusively at getonbrd.com.

Responsabilidades clave

  • Análisis y procesamiento de datos: recolectar, limpiar y preparar grandes volúmenes de datos estructurados y no estructurados; realizar análisis exploratorio para identificar patrones y anomalías; diseñar, automatizar y mantener flujos de datos end-to-end; asegurar actualización, escalabilidad y calidad de la información; implementar soluciones de almacenamiento y recuperación eficientes.
  • Modelado y aprendizaje automático: desarrollar, entrenar y validar modelos predictivos, de clasificación, segmentación y recomendación; aplicar técnicas de ML supervisado, no supervisado y aprendizaje profundo; optimizar modelos mediante selección de variables y ajuste de parámetros; poner modelos en producción y hacer seguimiento de su rendimiento.
  • Visualización y comunicación de resultados: elaborar tableros interactivos e informes ejecutivos; presentar resultados a audiencias técnicas y no técnicas; documentar metodologías, resultados y recomendaciones; garantizar consistencia entre modelos y métricas en tableros.
  • Automatización y orquestación de flujos de datos: diseñar y mantener ETL/ELT para extraer, transformar y cargar datos desde sistemas de origen hacia modelos y tableros; asegurar trazabilidad y confiabilidad de la información.
  • Colaboración estratégica: trabajar con equipos de negocio, ingeniería y producto para definir problemas y métricas de éxito; identificar oportunidades para el uso de datos; proponer nuevas metodologías, herramientas y buenas prácticas.

Perfil y experiencia

Formación: Licenciatura en Sistemas Computacionales, Informática, Ingeniería en Software o afín.
Experiencia: 4+ años en análisis de sistemas, desarrollo de software o roles similares. Deseable experiencia en ERP, CRM o herramientas BI.
Conocimientos técnicos clave: Python o R; SQL Server; Power BI o herramientas BI equivalentes; Microsoft Dynamics (modulos gerenciales); diseño de bases de datos, ETL y modelado dimensional; Office medio; entornos cloud (AWS, GCP o Azure); Excel.
Competencias: análisis y pensamiento estratégico; capacidad de traducir requerimientos técnicos a lenguaje empresarial; orientación a resultados; proactividad; trabajo en equipo; adaptabilidad y aprendizaje continuo; gestión del tiempo; resolución de problemas; apertura al feedback y mejora continua; precisión en manejo de información crítica.

Requisitos deseables

Experiencia en implementación de sistemas ERP, CRM o herramientas BI; familiaridad con métricas de negocio y KPIs; experiencia en entornos ágiles; habilidades de comunicación para presentar resultados a dirección y negocio.

Beneficios y condiciones

💼 Beneficio del puesto: 100% nómina
💰 Contrato indefinido
Prestaciones de ley:

  • 12 días de vacaciones desde el primer año
  • 15 días de aguinaldo
  • 25% de prima vacacional

✨ Prestaciones superiores:

  • vales de despensa
  • bono anual de desempeño
  • seguro de gastos médicos mayores para el personal y familiares directos
  • plataforma de telemedicina
  • TotalPass para gimnasios
  • descuentos corporativos en salud, educación, bienestar, consumo y entretenimiento.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst (Proyecto)
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis
BC Tecnología, una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales, busca incorporar un/a Data Analyst para un proyecto estratégico. El rol apoya la toma de decisiones basada en datos y la optimización de iniciativas digitales en un entorno con clientes de alto nivel y sector financiero. El/la profesional trabajará en un equipo ágil, colaborando con Product Owner y stakeholders para definir indicadores, priorizar iniciativas y generar insights accionables que impulsen el negocio.
La misión del proyecto es asegurar que las iniciativas digitales cuenten con métricas claras y dashboards ejecutivos para respaldar decisiones estratégicas, optimizando procesos y resultados. Se trabajará en un entorno híbrido, con foco en entrega de valor y mejora continua, y la posibilidad de involucrarse en otras áreas de la consultora según necesidades y desempeño.

This posting is original from the Get on Board platform.

Funciones

  • Definir y monitorear KPIs del negocio, asegurando que las métricas estén alineadas con los objetivos estratégicos.
  • Construcción y análisis de dashboards ejecutivos con Power BI, incorporando visualizaciones efectivas y análisis de tendencias.
  • Apoyar en la priorización del backlog junto al Product Owner, traduciendo requerimientos de negocio en historias y métricas.
  • Analizar el impacto de funcionalidades digitales, identificando oportunidades de mejora y priorizando acciones con base en datos.
  • Generar insights accionables para el negocio y presentar hallazgos a equipos multifuncionales y alta dirección.

Descripción

Buscamos un/una Data Analyst con al menos 2–3 años de experiencia en análisis de datos, SQL, Python y Power BI. Se valorará experiencia en entornos cloud (Azure o AWS) y en Databricks. Se trabaja bajo metodologías ágiles (Scrum/Kanban). Requisitos: capacidad analítica, atención al detalle, comunicación efectiva y orientación a resultados. El/la candidato/a ideal debe poder transformar datos en insights accionables, trabajar de forma colaborativa y gestionar prioridades en un entorno dinámico.

Perfil deseable

Conocimientos en Databricks, experiencia en construcción de dashboards para ejecutivos, familiaridad con procesos de datos en la nube y capacidad de trabajar en proyectos con plazos ajustados. Se valora proactividad, pensamiento crítico y habilidad para explicar complejidades técnicas a audiencias no técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2800 - 3100 Full time
Lider Técnico AWS – Datos
  • BC Tecnología
  • Santiago (Hybrid)
Agile SQL Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con enfoque en servicios, outsourcing y selección de profesionales, que acompaña a clientes de sectores como finanzas, seguros, retail y gobierno. En este rol, liderarás proyectos de datos en entornos cloud para clientes de alto perfil, asegurando soluciones escalables y alineadas a estándares de arquitectura. Trabajarás en un entorno ágil para diseñar e implementar soluciones de datos (ETL/ELT), gobernanza de datos y migraciones a la nube, colaborando estrechamente con equipos de Infraestructura, Desarrollo y Unidades de Negocio. Participarás en iniciativas de mejora continua, calidad de entrega y gobierno de datos, impulsando buenas prácticas de CI/CD y cumplimiento normativo. En un entorno híbrido, combinarás trabajo remoto con presencia en nuestras oficinas para colaborar de forma eficiente con stakeholders y equipos multidisciplinarios.

Apply from getonbrd.com.

Funciones principales

  • Liderar tecnicamente equipos de datos y proyectos AWS orientados a soluciones de ingesta, procesamiento y almacenamiento de datos.
  • Gestionar stakeholders y asegurar alineación de expectativas, alcance y plazos.
  • Diseñar y revisar arquitecturas de datos escalables (ETL/ELT, data lakes, data warehouses) utilizando servicios AWS (Glue, S3, Redshift, Lambda, Step Functions).
  • Garantizar gobernanza de datos, calidad, seguridad y cumplimiento de buenas prácticas de CI/CD y control de versiones.
  • Promover prácticas ágiles (Scrum/Kanban), liderazgo técnico, mentoring y desarrollo de capacidades del equipo.
  • Identificar y gestionar riesgos técnicos, definir indicadores de rendimiento y ejecutar planes de mitigación.
  • Colaborar con áreas de Infraestructura, Desarrollo y negocio para entregar soluciones alineadas a objetivos estratégicos.
  • Participar en revisiones de arquitectura, diseño de soluciones y documentación técnica.

Requisitos y perfil

Buscamos un Líder Técnico AWS con al menos 5 años de experiencia liderando proyectos y equipos de datos en entornos cloud. Se valorará experiencia sólida en proyectos de datos (ETL/ELT, arquitecturas escalables) y conocimiento profundo de servicios AWS como AWS Glue, S3, Redshift, Lambda y Step Functions. Se requiere experiencia en entornos ágiles (Scrum/Kanban), así como gobernanza de datos, CI/CD y buenas prácticas de calidad. El candidato ideal combinará habilidades técnicas sólidas con capacidad de liderazgo, comunicación efectiva y orientación a resultados.
Habilidades técnicas: diseño de arquitecturas de datos, orquestación de pipelines, proficient en SQL, modelado de datos, seguridad y cumplimiento, gestión de stakeholders, migraciones a la nube.
Competencias blandas: liderazgo colaborativo, comunicación clara, pensamiento estratégico, orientación a soluciones, capacidad de influencia y trabajo en equipo multifuncional.

Desirable

Certificaciones en AWS (por ejemplo, AWS Certified Solutions Architect – Professional o AWS Certified Data Analytics) son una ventaja. Experiencia con herramientas de orquestación adicionales, ciencia de datos, o herramientas de observabilidad y monitoreo de datos. Conocimientos en gobernanza de datos, calidad y metadatos, y experiencia en proyectos en sectores regulados también son deseables.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
AI Database Engineer
  • Niuro
PostgreSQL SQL Oracle Virtualization

Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. We design and deliver autonomous, high-performance engineering squads that handle complete administrative tasks (hiring, payments, training) so teams can focus on impactful work. Our mission is to simplify global talent acquisition with innovative solutions that maximize efficiency and quality.

You will contribute to industrial data projects that require reliable, secure, and scalable database platforms. You’ll work within a production-focused, engineering-first culture where databases are treated as core systems. While AI is applied selectively to improve operations, all work adheres to strict guardrails, traceability, and production safety. This role sits at the intersection of database engineering, platform operations, and AI-assisted tooling to reduce manual toil and improve operational leverage across our client deployments.

This job is available on Get on Board.

What You’ll Do

  • Design, operate, and support both relational and non-relational database platforms in production environments.
  • Own backup, restore, high-availability, and disaster-recovery strategies and execution.
  • Drive performance tuning, capacity planning, and reliability improvements.
  • Support migrations, upgrades, and modernization initiatives for database estates.
  • Operate cloud-native and hybrid database platforms in AWS or Azure.
  • Apply infrastructure-as-code and standardized provisioning patterns for database systems.
  • Collaborate with Platform and Infrastructure teams to ensure consistency, safety, and scalability.
  • Build and maintain AI agents and AI-assisted tools to support database workloads (investigation, monitoring, triage, runbooks).
  • Integrate AI agents with databases and internal APIs using production-safe patterns.
  • Participate in incident response, root cause analysis, and remediation efforts.
  • Join on-call rotations and provide production support as needed.
  • Produce and maintain runbooks, SOPs, and operational documentation; continuously improve tooling to reduce manual work.

Required Skills & Experience

We are seeking a hands-on AI Database Engineer with a strong foundation in database engineering and production operations. You should have 4–6 years of experience in database engineering or administration in production environments and be comfortable working across multiple database platforms (e.g., PostgreSQL, SQL Server, Oracle). You will thrive in a fast-paced, globally distributed team, delivering reliable data services and helping to automate repetitive tasks with AI-assisted workflows.
Key capabilities:
  • Deep expertise in high availability, backup/restore, disaster recovery, and performance optimization.
  • Proven experience operating cloud database services in AWS or Azure.
  • Strong scripting and automation skills; experience with IaC tooling (e.g., Terraform, CloudFormation) and deployment pipelines.
  • Practical experience applying AI-assisted tools to support engineering or operational workflows in production.
  • Excellent problem-solving, debugging, and incident response capabilities with a production-first mindset.
  • Solid understanding of data security, compliance, and data protection practices in regulated environments is a plus.
  • Collaborative mindset: ability to work with SRE/Platform Engineering, Application teams, and other stakeholders.

Nice to Have / Preferred Experience

Experience building internal tools or automation that integrates databases with AI-assisted systems; familiarity with agent-based or tool-oriented AI patterns used in production operations; exposure to SaaS, data-intensive environments, and regulated contexts. Prior work in data protection, privacy considerations, and security auditing is highly valued. Experience collaborating closely with SRE or Platform Engineering teams is a plus.

Benefits & Growth

Niuro offers a fully remote, globally distributed work model with strong administrative support, enabling you to focus on impactful, technically rigorous work. You’ll have access to ongoing career development programs, leadership opportunities, and training in both technical and soft skills. We emphasize technical excellence, collaboration, and continuous innovation, with clear paths for progression into senior and leadership roles. Successful performance on initial engagements may lead to long-term, stable full-time opportunities with our client partners. You’ll join a supportive community that values growth, quality, and work-life balance.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer AWS
  • BC Tecnología
Agile SQL Virtualization Big Data
En BC Tecnología buscamos Data Engineer AWS para colaborar en proyectos de alto impacto para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo, parte de una consultora de TI con enfoque en soluciones innovadoras, trabaja en entornos de Big Data y nube, diseñando y operando infraestructuras escalables para procesamiento de datos y analítica avanzada. Participarás en proyectos de migración, diseño de pipelines de datos, implementación de soluciones en AWS y operaciones de datos, con un enfoque en calidad, seguridad y cumplimiento. Formarás parte de un equipo ágil que impulsa soluciones orientadas al negocio y la eficiencia operativa.

Applications are only received at getonbrd.com.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos en entornos AWS (Glue, Lambda, Step Functions, Redshift, Athena, Lake Formation).
  • Gestionar arquitectura de datos y clústeres, asegurando rendimiento, escalabilidad y seguridad de la información.
  • Implementar políticas IAM y controles de acceso, garantizando cumplimiento y buenas prácticas de seguridad.
  • Colaborar con científicos de datos y equipos de negocio para transformar requerimientos en soluciones técnicas eficientes.
  • Participar en la mejora continua de procesos, automatización y monitoreo de flujos de datos.

Perfil y habilidades

  • Experiencia mínima de 2 años como Data Engineer, preferentemente en entornos Big Data y nube AWS.
  • Conocimientos en AWS: Glue, Lambda, Step Functions, Redshift, Lake Formation, SQL, Athena y gestión de políticas IAM.
  • Experiencia con bases de datos y arquitecturas de clústeres; capacidad para optimizar rendimiento y costos.
  • Fuerte capacidad de resolución de problemas, pensamiento analítico y orientación a resultados.
  • Buen comunicador, capaz de trabajar en equipos ágiles y adaptar soluciones a requerimientos de negocio.
  • Idiomas: español; se valoran habilidades en inglés técnico.

Requisitos Deseables

  • Certificaciones AWS (por ejemplo, AWS Data Analytics, AWS Solutions Architect).
  • Experiencia en orquestación de datos y herramientas de orquestación adicional (por ejemplo, Step Functions, Airflow).
  • Conocimientos en seguridad de datos, cumplimiento normativo y buenas prácticas de DevOps/DataOps.
  • Experiencia en proyectos de migración de datos, tratamiento de datos sensibles y observabilidad de pipelines.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2800 - 3000 Full time
Data Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Git SQL NoSQL
Genesys Tecnologías de Inform. SpA, una empresa con más de 30 años liderando proyectos de desarrollo de software y servicios TI en Latinoamérica, busca incorporar un/a Data Engineer para trabajar en un proyecto de alto nivel tecnológico. El equipo participa en una fábrica de desarrollo de software y servicios de outsourcing para clientes de primer nivel. El rol ofrece la oportunidad de diseñar, construir y escalar soluciones de datos dentro de una organización consolidada, con presencia en Concepción y Santiago, y colaboración estrecha con equipos multidisciplinarios para impulsar la transformación digital.

Apply to this posting directly on Get on Board.

Qué harás

  • Participar en el diseño y mantención de pipelines de datos (ETL / ELT).
  • Trabajar con bases de datos relacionales y no relacionales.
  • Asegurar la ingesta y transformación de datos en batch y tiempo real.
  • Colaborar con equipos de negocio y tecnología para resolver problemas reales.
  • Aprender buenas prácticas de cloud, automatización y CI/CD.
  • Documentar, reportar avances y proponer mejoras continuas.

Requisitos y perfil

Formación en Ingeniería, Computación, Informática o carrera afín. Inglés avanzado (oral y escrito). Conocimientos base en SQL y bases de datos; Python para procesamiento de datos; conceptos de Data Warehouse y pipelines. Interés en herramientas como Airflow, DBT, AWS/Cloud, Git y CI/CD. Actitud proactiva, pensamiento analítico y ganas de crecer. No es requisito dominar todas las herramientas; valoramos el potencial y el compromiso con el aprendizaje. Altamente motivados por aprender en un entorno exigente pero formativo.

Deseables pero no requeridos

Experiencia previa en entornos de datos y proyectos de ingesta/transformación de datos; conocimientos de grandes volúmenes de información; exposición a arquitecturas en producción. Familiaridad con prácticas de seguridad y gobernanza de datos, así como metodologías ágiles. Disponibilidad para colaborar en un entorno híbrido y multicultural.

Qué ofrecemos

Proyecto estable en cliente de alto nivel tecnológico. Modalidad híbrida. Horario flexible: Lunes a jueves 08:30-18:00, Viernes 08:30-17:30. Aprendizaje continuo y crecimiento profesional real. Trabajo con tecnologías modernas y desafíos reales de negocio. Formación y desarrollo dentro de una empresa consolidada en Latinoamérica con más de 30 años de experiencia. Equipo multidisciplinario y apoyo técnico continuo desde la matriz en Santiago y otras operaciones. 😊

VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Engineer
  • Artefact LatAm
Python Big Data English Back-end

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Engineer tendrá la responsabilidad de liderar el desarrollo de proyectos de Big Data con clientes, diseñando y ejecutando arquitecturas de datos que sirvan como puente entre la estrategia empresarial y la tecnología, bajo los principios de gobernanza de datos establecidos por los clientes. Además, será responsable de diseñar, mantener e implementar estructuras de almacenamiento de datos tanto transaccionales como analíticas. Este rol implica trabajar con grandes volúmenes de datos provenientes de diversas fuentes, procesarlos en entornos de Big Data y traducir los resultados en diseños técnicos sólidos y datos consistentes. También se espera que revise la integración consolidada de datos y describa cómo la interoperabilidad capacita a múltiples sistemas para comunicarse entre sí.

This job is exclusive to getonbrd.com.

Tus responsabilidades serán:

  • Diseñar arquitecturas de datos que cumplan con los requisitos de los clientes y se alineen con su estrategia empresarial, asegurando la adherencia a los principios de gobernanza de datos.
  • Diseñar, implementar, mantener y actualizar estructuras de almacenamiento de datos transaccionales y analíticas, garantizando la integridad y disponibilidad de los datos.
  • Extraer datos de diversas fuentes y transferirlos eficientemente a entornos de almacenamiento de datos.
  • Diseñar e implementar procesos que soporten grandes volúmenes de datos en entornos de Big Data, utilizando herramientas y tecnologías pertinentes en cada proyecto.
  • Comunicar hallazgos, resultados y diagnósticos efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Colaborar con equipos multidisciplinarios en la gestión estratégica de proyectos, asegurando la entrega oportuna y exitosa de soluciones de datos.
  • Desarrollar y mantener soluciones en la nube y on premise.
  • Utilizar metodologías ágiles para el desarrollo y entrega de soluciones de datos, adaptándose rápidamente a los cambios y requisitos del proyecto.
  • Apoyar al equipo traspasando conocimientos y buenas prácticas, apoyando en la capacitación y aprendizaje continuo según las necesidades individuales de los miembros
  • Gestionar al equipo mediante una planificación estratégica del proyecto, asegurando una distribución eficiente de tareas y una comunicación clara de los objetivos.

Los requisitos del cargo son:

  • Experiencia mínima de 3 años en el uso de herramientas de gestión de datos.
  • Experiencia previa en la gestión estratégica de equipos multidisciplinarios.
  • Conocimientos avanzados de Python o Pyspark y experiencia en su aplicación en proyectos de datos.
  • Experiencia en el diseño e implementación data warehouse, data lakes y data lake house
  • Desarrollo de soluciones de disponibilización de datos.
  • Experiencia práctica con al menos uno de los principales almacenes de archivos en la nube.
  • Buen manejo del inglés.

Algunos deseables no excluyentes:

  • Experiencia en consultoría y/ proyectos de estrategia o transformación digital
  • Experiencia con servicios de procesamiento y almacenamiento de datos de AWS o GCP, Azure
  • Certificaciones

Algunos de nuestros beneficios:

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros (Chile).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Lead Cloud Data Engineer
  • Signant Health
Python SQL DevOps Virtualization

About Signant Health

Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations, and reimagining the path to proof.

Where do you fit in?

As a Lead Cloud Data Engineer at Signant Health, you will play a pivotal role in architecting and optimizing our data infrastructure to drive innovative analytics and data products.

This job is exclusive to getonbrd.com.

Job functions

-Designing and developing high-level technical architectures for both streaming and batch processing systems to ensure scalability and efficiency.
-Creating reusable components, frameworks, and libraries at scale to empower analytics data products and accelerate development.
-Conducting proof-of-concepts (POCs) on emerging technologies and architectural patterns to stay ahead of industry trends.
-Collaborating with business and technology stakeholders to design and implement product features that align with strategic goals.
-Proactively identifying and resolving data management issues to enhance data quality and reliability.
-Cleaning, preparing, and optimizing large-scale data for seamless ingestion and consumption across platforms.
-Leading the implementation of new data management projects and restructuring existing data architectures for improved performance.
-Developing complex automated workflows and routines using advanced workflow scheduling tools.
-Establishing continuous integration, test-driven development, and production deployment frameworks to streamline delivery.
-Conducting collaborative reviews of designs, code, test plans, and dataset implementations to uphold data engineering best practices.
-Analyzing and profiling data to inform the design of scalable, high-performance solutions.
-Troubleshooting complex data issues through root cause analysis to resolve product and operational challenges preemptively.
-Partnering closely with product management to translate business requirements into actionable epics and deliverables.

Qualifications and requirements

-Proven experience leading development efforts and mentoring junior developers.
-Hands-on experience with AWS or Azure cloud platforms.
-Proficiency in Python for data processing and automation.
-Advanced SQL skills for querying and manipulating large datasets.
-A DevOps mindset with expertise in end-to-end software development practices.
-Experience with data movement using serverless technologies.

Desirable skills

-Familiarity with Snowflake for cloud data warehousing.
-Knowledge of Kafka for real-time data streaming.
-Experience with AWS Glue for ETL processes.
-Proficiency in Oracle or SQL Server databases.
-Background in API integration for seamless data connectivity.
-Hands-on experience with CI/CD automation tools like Jenkins.

Conditions

Pet-friendly Pets are welcome at the premises.
Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Software Engineer I (DataOps)
  • Wherex
  • Santiago (Hybrid)
Python SQL NoSQL Virtualization

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Aporta valor real en una célula de alto rendimiento con herramientas de vanguardia. Crece con profesionales especializados y conviértete en un profesional más completo en un entorno desafiante.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!

Apply without intermediaries from Get on Board.

Job functions

- Diseñar, construir y mantener pipelines de datos robustos y eficientes, que permitan la recolección, transformación y carga de datos desde múltiples fuentes internas y externas.
- Facilitar la generación de insights accionables mediante la entrega oportuna de datos confiables y enriquecidos para análisis de negocio.
- Implementar y optimizar modelos de almacenamiento (data lakes, data warehouses, bases relacionales y no relacionales), asegurando un balance entre performance, costo y escalabilidad.
- Monitorear continuamente los flujos y procesos automatizados, detectando y comunicando incidencias oportunamente para mantener una operación confiable.
- Garantizar la calidad de los datos, diseñando validaciones, controles y tests automáticos que aseguren la integridad, completitud y consistencia de la información.
- Aplicar estándares técnicos y de gobierno de datos, velando por la trazabilidad, documentación y cumplimiento de políticas de seguridad y privacidad.
- Colaborar activamente con analistas, científicos de datos y otras áreas de producto, entendiendo sus necesidades y generando soluciones que faciliten la toma de decisiones.
- Participar en ceremonias ágiles y espacios de coordinación técnica, asegurando el alineamiento con stakeholders y contribuyendo al trabajo colaborativo.
- Buscar continuamente oportunidades de mejora en herramientas, procesos y performance, priorizando soluciones reutilizables, escalables y orientadas a la eficiencia del equipo.
- Documentar de forma clara los pipelines, estructuras y decisiones técnicas, promoviendo la transferencia de conocimiento y mantención futura.

Qualifications and requirements

- Ingeniero Civil Industrial, Ingeniero Civil Informático o Ingeniero en Computación.
- Al menos 1 año de experiencia en roles de ingeniero de datos.
- Experiencia en: Python, bases de datos SQL y no relacionales (Mongo).
- Deseable experiencia trabajando con AWS o Azure.

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
SQL Business Intelligence Virtualization Amazon Web Services
BC Tecnología, una consultora de TI especializada en servicios IT y soluciones de negocio, busca un Data Engineer para un proyecto híbrido ubicado en Las Condes, Santiago. El/la profesional se integrará a un equipo de BI/Analytics para desarrollar, optimizar y mantener soluciones de datos en entornos analíticos, trabajando con clientes de alto nivel en sectores como finanzas, seguros, retail y gobierno. El proyecto implica colaborar con equipos de BI, Analytics y TI, contribuuyendo a la implementación de pipelines de datos, modelado y generación de reports y dashboards de valor estratégico.

This job offer is available on Get on Board.

Funciones del rol

  • Desarrollar y optimizar consultas y modelos en SQL Server para soportar reporting analítico.
  • Diseñar, implementar y mantener pipelines de datos, integrando fuentes en plataformas en la nube (AWS, Azure o GCP).
  • Desarrollar y mantener reportes y dashboards en MicroStrategy para usuarios de negocio.
  • Colaborar con equipos de BI, Analytics y TI para entender requerimientos y entregar soluciones eficientes.
  • Identificar mejoras de rendimiento, escalabilidad y calidad de datos; aplicar buenas prácticas de gobierno de datos.

Requisitos y perfil

  • Al menos 3 años de experiencia como Data Engineer o BI Engineer.
  • Experiencia comprobable en SQL Server y MicroStrategy.
  • Experiencia trabajando con alguna nube (AWS, Azure o GCP).
  • Capacidad para trabajar en entornos colaborativos, orientado a resultados y con buena comunicación con stakeholders.
  • Conocimiento en conceptos de modelado de datos, extracción, transformación y carga (ETL/ELT) y buenas prácticas de calidad de datos.

Skills and assets

  • Certificaciones en SQL Server, Data Platform o tecnologías de nube asociadas.
  • Con experiencia en herramientas de visualización y dashboards además de MicroStrategy.
  • Conocimientos de Python o lenguajes de scripting para transformaciones de datos.
  • Actitud proactiva, pensamiento analítico y capacidad para trabajar de forma autónoma en entornos dinámicos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • Talana
  • Santiago (Hybrid)
Java Python SQL Erlang

En Talana, buscamos un Data Engineer que diseñe, implemente y optimice una arquitectura de datos escalable, segura y de alta disponibilidad para transformar datos crudos en insights confiables. El objetivo fundamental es transformar datos crudos provenientes de diversas fuentes en activos de datos listos para el análisis, asegurando la excelencia operativa y la automatización total del ciclo de vida del dato mediante prácticas de DataOps.

Apply from getonbrd.com.

Funciones y responsabilidades

  • Diseñar y desplegar pipelines ETL/ELT robustos en GCP para centralizar datos de toda la organización.
  • Gestionar Infraestructura como Código (IaC) con Terraform para reproducibilidad, trazabilidad y control de costos.
  • Optimizar BigQuery mediante particionamiento, modelos de datos y técnicas de costo-efectividad para maximizar ROI por consulta.
  • Configurar orquestación de flujos con Dataflow y garantizar la frescura de los datos para tableros de control listos para las reuniones matutinas.
  • Implementar políticas de IAM, cifrado y gobernanza para mantener un Data Lake seguro y conforme a estándares internacionales.
  • Configurar monitoreo proactivo y alertas para detección de anomalías y mejora de la confiabilidad en tiempo real.
  • Colaborar con SRE y equipos de negocio para entregar soluciones que añadan valor inmediato.

Requisitos y perfil buscado

  • Formación: Ingeniería Civil/Informática o carreras afines.
  • Experiencia: mayor a 3 años en roles de ingeniería de datos, con al menos 1 año en nivel semi senior.
  • Conocimientos técnicos: SQL y Python a nivel avanzado; experiencia con Terraform; conocimiento de GCP (preferible) o AWS. Deseables: Apache Kafka, Apache Beam, Apache Iceberg. Inglés técnico suficiente para lectura de textos técnicos.
  • Competencias: pensamiento analítico, enfoque en calidad de datos, capacidad para trabajar en entornos colaborativos y orientados a resultados.

Deseables

Experiencia en migraciones de datos a Data Lakehouse, experiencia con orquestación avanzada, y habilidades para diseñar arquitecturas de datos que soporten dashboards y métricas en tiempo real. Conocimiento práctico de seguridad de datos, gobernanza y cumplimiento de normativas.

Beneficios

  • 💸 Ajuste de renta por UF cada 3 meses, sin tope
  • 🏝️ 5 Talana Days: te regalamos 5 días libres al año
  • 🏡 Trabajo híbrido
  • 🏥 Seguro complementario de salud y dental
  • 💰 Aguinaldos fiestas patrias y Navidad
  • 💻 Te pasamos todos los implementos de trabajo
  • 😎 Dress Code 100% flexible
  • 👨🏻‍🍼 Postnatal paternal extendido

¡¡Muchas sorpresas más!!

"Todas las contrataciones están sujetas a la ley 21015. En Talana creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas"

Health coverage Talana pays or copays health insurance for employees.
Computer provided Talana provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Talana gives you paid vacations over the legal minimum.
Beverages and snacks Talana offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Virtualization
BC Tecnología es una consulta de TI especializada en la gestión de portafolios, desarrollo de proyectos y outsourcing de personal para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Enfocada en clientes de servicios financieros, seguros, retail y gobierno, la empresa promueve soluciones a través de metodologías ágiles y un marco de cambio organizacional centrado en el desarrollo de productos. El Data Engineer se integrará a proyectos desafiantes que buscan optimizar flujos de datos, gobernanza y escalabilidad, apoyando a clientes con alto estándar de calidad y buscando mejoras continuas en procesos y pipelines.

© Get on Board.

Funciones principales

  • Diseñar y construir pipelines eficientes para mover y transformar datos, asegurando rendimiento y escalabilidad.
  • Garantizar consistencia y confiabilidad mediante pruebas unitarias y validaciones de calidad de datos.
  • Implementar flujos CI/CD para ambientes de desarrollo y producción, promoviendo buenas prácticas de DevOps.
  • Diseñar pipelines avanzados aplicando patrones de resiliencia, idempotencia y event-driven.
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje.
  • Colaborar con líderes técnicos y arquitectos para definir estándares, guías y mejoras de procesos.
  • Alinear soluciones técnicas con requerimientos de negocio y metas de entrega.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas del equipo.

Requisitos y experiencia

Buscamos un Data Engineer con al menos 2 años de experiencia en el diseño y construcción de pipelines de datos. Debe poseer dominio avanzado de Python, Spark y SQL, y experiencia trabajando en el ecosistema AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia con lakehouses (Delta Lake, Iceberg, Hudi) y conocimientos en CI/CD (Git) y control de versiones. Se valorará experiencia previa en entornos de retail y en proyectos de calidad y gobierno de datos, así como experiencia en desarrollo de integraciones desde/hacia APIs y uso de IaC (Terraform).
Se requieren habilidades de comunicación efectiva, trabajo en equipo y proactividad. Se valorará capacidad de aprendizaje, colaboración entre equipos y enfoque en resultados en un entorno dinámico y con clientes de alto nivel.

Requisitos deseables

Experiencia previa en retail o sectores regulados. Conocimiento en calidad y gobierno de datos. Experiencia en desarrollo de integraciones desde/hacia APIs. Conocimientos en herramientas de orquestación y monitoreo de pipelines. Familiaridad con buenas prácticas de seguridad de datos y cumplimiento normativo. Capacidad para comunicar conceptos técnicos a audiencias no técnicas y para fomentar una cultura de mejora continua.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $3200 - 3500 Full time
Ingeniero/a de Datos Inglés Avanzado
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Agile SQL NoSQL
Genesys Tecnologías de Inform. SpA, una empresa con más de 30 años en el mercado latinoamericano, busca un/a Ingeniero/a de Datos con inglés avanzado para planificar, ejecutar y reportar proyectos de datos de diverso alcance. El rol implica trabajar de forma autónoma con información compleja, proponiendo soluciones sólidas a problemas de negocio. La posición forma parte de nuestro equipo de ingeniería de datos, colaborando con clientes de alto perfil y con una visión de transformación digital que integra tecnologías de nube, analítica y automatización.

Apply directly on Get on Board.

Funciones y Responsabilidades

  • Diseñar, construir y mantener pipelines de datos utilizando SQL, NoSQL (MySQL, PostgreSQL, MongoDB, Redshift, SQL Server) y herramientas de orquestación.
  • Desarrollar procesos de ETL/ELT y soluciones de Data Warehouse para ingesta y transformación de datos a escala empresarial.
  • Desarrollar y mantener código en Python para procesamiento y automatización de datos.
  • Orquestar flujos de datos con herramientas como Apache Airflow y DBT.
  • Gestión de ingesta en tiempo real, incluyendo etiquetado web y plataformas de datos en tiempo real (p. ej., Snowplow, Google Tag Manager).
  • Definir y mantener pipelines CI/CD con herramientas como Bitbucket y Jenkins.
  • Aplicar metodologías ágiles: gestión de backlog, seguimiento de proyectos e informes (idealmente con Jira).
  • Trabajar en entornos cloud (AWS) y big data, con experiencia en PySpark u otras tecnologías para ingeniería y despliegue de datos.
  • Conocimiento de herramientas complementarias (deseables): Digdag, Embulk, Presto.
  • Capacidad para comprender el negocio y aportar en analítica de marketing/Martech y/o Adtech como valor agregado.
  • Aplicación de modelos de machine learning en plataformas de datos de clientes (deseable).
  • Conocimientos de publicidad programática como plus.
  • Gestión de bloques de datos y calidad de datos, asegurando trazabilidad y gobernanza.
  • Colaboración con equipos multidisciplinarios y apoyo a stakeholders internos y externos.

Requisitos y Perfil

Buscamos un/a Ingeniero/a de Datos con experiencia sólida en desarrollo e implementación de soluciones de datos complejas. Debe demostrar capacidad para planificar, ejecutar y comunicar avances de proyectos de datos en entornos dinámicos, con especial atención a la calidad de datos, escalabilidad y rendimiento. Se valorará experiencia en proyectos de Martech/Adtech y en entornos de nube. Se requiere habilidad para trabajar de forma autónoma, resolver problemas y colaborar de manera efectiva con equipos multifuncionales.
Habilidades técnicas esenciales: dominio de SQL y NoSQL, experiencia con Data Warehouse y ETL/ELT, Python para procesamiento, herramientas de orquestación (Airflow, DBT), ingestas en tiempo real, CI/CD (Bitbucket, Jenkins), metodologías ágiles (Jira), y experiencia en AWS o plataformas similares. Se valora conocimiento en herramientas como Snowplow, Google Tag Manager, Digdag, Embulk y Presto, así como experiencia en marketing analytics y/o ML en datos de clientes.
Habilidades blandas: mentalidad de ingeniero/a, capacidad de resolución de problemas, buen colaborador/a en equipo, orientación al aprendizaje continuo y crecimiento profesional, comunicación clara y capacidad para gestionar prioridades en entornos con información parcial.

Competencias Deseables

  • Experiencia en publicidad programática y plataformas de publicidad digital.
  • Conocimientos avanzados en ML aplicado a datos de clientes y casos de uso de marketing automation.
  • Experiencia con Digdag, Embulk o Presto; familiaridad con pipelines complejos y orquestación multicampo.
  • Conocimiento de gobernanza de datos y buenas prácticas de seguridad y cumplimiento.

Beneficios y Condiciones

Ofrecemos contrato por proyecto con posibilidad de continuidad, en una empresa consolidada en Latinoamérica con más de tres décadas de experiencia. Forma parte de un equipo multidisciplinario, con comunicación directa con la matriz y operaciones en Santiago y otras ciudades, fomentando desarrollo profesional y crecimiento. Modalidad de trabajo híbrida con proyección a 100% presencial, horario habitual de lunes a jueves, con viernes reducido, y posibilidad de ajuste según proyecto. Ubicaciones en Concepción y Santiago, con oportunidades de desarrollo y aprendizaje continuo. 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales. Nuestro enfoque es crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, con un equipo multidisciplinario y una cultura de aprendizaje y crecimiento profesional. Formarás parte de una organización que prioriza la calidad, la seguridad y la gobernanza de datos mientras impulsa soluciones de alto impacto para la toma de decisiones estratégicas.

Applications are only received at getonbrd.com.

Funciones

  • Diseñar, construir y mantener pipelines de datos (ETL / Data Pipelines) robustos, escalables y eficientes para procesar grandes volúmenes de información de múltiples fuentes.
  • Gestionar la ingesta, procesamiento, transformación y almacenamiento de datos estructurados y no estructurados.
  • Implementar soluciones de ingeniería de datos en entornos cloud, con preferencia por AWS (Glue, Redshift, S3, etc.).
  • Traducir necesidades de negocio en requerimientos técnicos viables y sostenibles.
  • Colaborar con equipos multidisciplinarios (negocio, analítica, TI) para entregar soluciones de valor.
  • Aplicar buenas prácticas de desarrollo, seguridad, calidad y gob (governance) de datos; versionado de código, pruebas y documentación.
  • Participar en comunidades de datos, promover mejoras continuas y mantener la documentación actualizada.

Requisitos y habilidades

Estamos buscando un Data Engineer con al menos 3 años de experiencia en roles de Ingeniería de Datos y experiencia comprobable en ETLs y arquitecturas de datos en la nube. El candidato ideal debe haber trabajado en entornos ágiles y tener experiencia en proyectos de Retail o sectores afines (deseable).
Conocimientos técnicos requeridos:
  • Cloud Computing: AWS (Glue, Redshift, S3, entre otros).
  • Orquestación de pipelines: Apache Airflow.
  • Lenguajes de programación: Python (preferente) o Java.
  • Almacenamiento de datos: SQL, NoSQL, Data Warehouses.
  • Buenas prácticas: control de versiones, pruebas y documentación.
Competencias blandas: orientación al cliente, capacidad de trabajar en equipos multidisciplinarios, proactividad, pensamiento analítico y habilidades de comunicación para traducir requerimientos técnicos a negocio.

Deseables

Experiencia en Retail y en proyectos con gobernanza y cumplimiento de datos, experiencia con herramientas de visualización y analítica, conocimiento de seguridad de datos y cumplimiento normativo, y experiencia en migraciones o modernización de data stacks.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3400 Full time
Senior Data Engineer
  • Forest
  • Santiago (Hybrid)
Python PostgreSQL Git SQL

What is Forest?

We are Forest, London’s most sustainable shared eBike operator. We bridge the gap between affordability and sustainability, using our advertising revenue to offer all customers free cycling minutes daily.

We have just raised a Series A funding round to double our fleet size in London, continuing to invest in our digital marketing proprietary tech, and starting our international expansion plans.

If you want to join a quick-moving and fast-growing company, making a difference in the micro-mobility industry, come join us.

Please note: our company is based in the UK and has Chilean Founders.

*This job is based in Chile (candidate must be based here), and reports to the team in Chile and the UK. Spanish and English fluency is mandatory.

This job offer is on Get on Board.

About the Role

We are looking for a SeniorData Engineer with strong experience in database migrations, specifically moving large-scale datasets and pipelines from Postgres to Snowflake. You will design, build, and optimize migration workflows using Mage as our orchestration platform, while leveraging both AWS and GCP infrastructure.

This role is ideal for someone who knows how to work with complex schemas, high-volume data, and performance tuning, and who can drive a seamless migration with minimal downtime.

Migration & Pipeline Development

  • Lead the end-to-end migration of datasets, ETL jobs, and schemas from Postgres to Snowflake.
  • Design, build, and maintain data ingestion and transformation pipelines using Mage.
  • Ensure data quality, consistency, and performance across the migrated ecosystem.

Architecture & Optimization

  • Optimize query performance and warehouse usage in Snowflake (clustering, micro-partitioning, caching, etc.).
  • Work with cloud infrastructure on AWS and GCP, integrating pipelines with storage (S3/GCS), compute, IAM, networking, and secret management.
  • Create scalable, cost-efficient data models and workflows.

Tableau Integration & Support

  • Support the migration of Tableau data sources from Postgres connections to Snowflake connections.
  • Work with the Data team to validate Tableau dashboards after migration.
  • Optimize Snowflake models and queries used by Tableau to ensure performance and cost efficiency.
  • Help redesign or refactor extracts, live connections, and published data sources to align with best practices.

Collaboration & Delivery

  • Partner with Data, Product, and Engineering to understand data needs and ensure smooth transition.
  • Document migration steps, architecture decisions, and pipeline designs.
  • Troubleshoot and resolve issues related to performance, data inconsistencies, and pipeline failures.

Requirements

Technical Skills

  • 5+ years of experience in Data Engineering or similar roles.
  • Strong expertise with Postgres (schema design, query tuning, replication strategies).
  • Hands-on experience with Snowflake (Snowpipe, Tasks, Streams, Warehouses).
  • Solid experience orchestrating pipelines using Mage (or Airflow/Prefect with willingness to learn Mage).
  • Strong SQL skills and Python.
  • Experience working with AWS and GCP
  • Familiarity with CI/CD pipelines and Git-based workflows.

Optionals

  • Experience migrating large datasets or re platforming data stacks.
  • Experience implementing security and governance frameworks.
  • Strong communication and documentation habits.
  • Ability to work independently and drive projects from start to finish.
  • Problem-solver with a focus on reliability and scalability.
  • Comfortable working in a fast-paced, cloud-native, multi-cloud environment.

What we offer

  • Opportunity to design and influence the core data architecture.
  • Flexibility, learning resources, and ownership over high-impact projects.
  • Play a key role in the transformation of sustainable urban mobility in our cities.
  • Competitive compensation plan with plenty of development opportunities.
  • Scale with a rapidly growing organization, working with a team of fun, experienced and motivated individuals, with highly growth opportunities.
  • Private Health Insurance plan.
  • 20 days holiday plus your birthday.
  • Work for an international company that has a link between Chile and the UK.
  • Bilingual mode of communication at work.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Forest pays or copays life insurance for employees.
Meals provided Forest provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Forest pays or copays health insurance for employees.
Dental insurance Forest pays or copays dental insurance for employees.
Computer provided Forest provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Forest gives you paid vacations over the legal minimum.
Beverages and snacks Forest offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer (AWS Redshift / Zero‑ETL / Consumption Layer)
  • WiTi
Analytics SQL Business Intelligence Virtualization
Nos dedicamos al desarrollo de software y soluciones tecnológicas. Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles. Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.

Apply directly through getonbrd.com.

Funciones del cargo

Buscamos un Data Engineer con experiencia sólida construyendo y optimizando capas de consumo analíticas en entornos cloud, idealmente sobre Amazon Redshift Serverless.
Tu misión será diseñar, modelar y mantener una capa de consumo en Redshift a partir de datos replicados vía Zero‑ETL desde Aurora, habilitando datasets confiables y performantes para reporting, métricas multi‑dominio y casos de uso de analítica/IA.

Responsabilidades principales:

  • Diseñar modelos analíticos (facts, dims y marts) orientados a autoservicio de datos y consumo por herramientas BI/IA.
  • Implementar y optimizar consultas SQL avanzadas sobre Redshift (joins grandes, agregaciones, window functions) garantizando buen performance y costo.
  • Analizar y tunear el rendimiento de Redshift (EXPLAIN, DS_BCAST/DS_DIST, scans, spill, skew) proponiendo mejoras continuas en diseño físico.
  • Definir y ajustar DISTSTYLE/DISTKEY, SORTKEY, CTAS/materializaciones y estadísticas para maximizar la performance de la capa de consumo.
  • Construir pipelines livianos en AWS (Redshift Data API, Lambda, EventBridge u otros servicios equivalentes) para refrescar la capa de consumo con mínima latencia y alta confiabilidad.
  • Colaborar con analistas, producto y stakeholders de negocio para entender métricas clave y reflejarlas correctamente en los datasets.

Requerimientos del cargo

  • Experiencia comprobable como Data Engineer (ideal 3+ años) trabajando con warehouses en cloud.
  • Experiencia práctica con Amazon Redshift (idealmente Redshift Serverless) y SQL avanzado.
  • Conocimientos fuertes de performance tuning en Redshift: lectura de EXPLAIN, comprensión de broadcast vs redistribution (DS_BCAST/DS_DIST), manejo de scans, spill y skew.
  • Diseño físico y optimización de tablas en Redshift: DISTSTYLE/DISTKEY, SORTKEY, uso de CTAS/materializaciones y manejo de estadísticas.
  • Experiencia en modelado analítico (esquemas de hechos y dimensiones, data marts, agregados) orientado a consumo.
  • Experiencia construyendo pipelines livianos en AWS para refrescar datos (por ejemplo Redshift Data API, Lambda, EventBridge o servicios equivalentes).

Nice‑to‑have (deseables):

  • Experiencia usando dbt para modelado y orquestación ligera sobre el warehouse.
  • Prácticas de data quality (tests, checks, monitoreo de calidad de datos).
  • Experiencia exponiendo la capa de consumo a través de herramientas BI como QuickSight u otras.
  • Haber habilitado semantic layers o datasets pensados para IA/LLM o analítica avanzada.

Soft Skills

Resolución de problemas: Capacidad analítica para identificar cuellos de botella de performance y proponer soluciones técnicas simples y efectivas.

  • Comunicación: Habilidad para explicar decisiones de diseño de datos y métricas a perfiles técnicos y de negocio.
  • Colaboración: Experiencia trabajando con equipos ágiles y en coordinación con analistas, científicos de datos y desarrolladores.
  • Orden y detalle: Prolijidad en documentación, definición de contratos de datos y buenas prácticas en modelado.

Condiciones

En WiTI, nuestro centro son las personas y la agilidad, nos gusta compartir conocimientos entre todos y distintas áreas, cómo compartir tiempo extra para conversar sobre videojuegos, películas, seríes y cualquier topic interesante para nosotros.

  • Plan de carrera
  • Certificaciones
  • Cursos de idiomas
  • Aguinaldos

Fully remote You can work from anywhere in the world.
Internal talks WiTi offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Conference stipend WiTi covers tickets and/or some expenses for conferences related to the position.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

This job is exclusive to getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Official source: getonbrd.com.

Descripción del trabajo

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Outdoors The premises have outdoor spaces such as parks or terraces.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
Gross salary $3400 - 4000 Full time
Sr Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Python SQL NoSQL

Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de evaluar a los solicitantes de empleo. Fundada en 2014, Checkr pone tecnología moderna impulsada por aprendizaje automático en manos de los equipos de contratación, ayudando a contratar talento con una experiencia rápida, fluida y segura.

Checkr cuenta con más de 100,000 clientes como DoorDash, Coinbase, Lyft, Instacart y Airtable. Trabajar en Checkr implica colaborar con mentes brillantes, revolucionar un sector y abrir oportunidades a candidatos que suelen pasar desapercibidos. Checkr es reconocida en la lista Forbes Cloud 200 2024 y es una empresa innovadora de Y Combinator 2023.

Apply through Get on Board.

Job functions

Acerca del equipo/puesto

Buscamos un SR Data Engineer con experiencia para incorporarse a nuestro equipo de Plataforma de Datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene plataformas de datos escalables para tomar decisiones de contratación justas y seguras.

Como ingeniero del equipo de la plataforma de datos, trabajarás en la plataforma de datos centralizada de Checkr, fundamental para la visión de la empresa. La plataforma de datos centralizada es el núcleo de todos los productos clave orientados al cliente. Trabajarás en proyectos de gran impacto que contribuyen directamente a los productos de próxima generación.

Qué harás:

  • Serás un colaborador independiente capaz de resolver problemas y ofrecer soluciones de alta calidad con una supervisión mínima/de alto nivel y un alto grado de responsabilidad.
  • Aportarás una mentalidad centrada en el cliente y orientada al producto: colaborarás con los clientes y las partes interesadas internas para resolver ambigüedades del producto y ofrecer funciones impactantes.
  • Te asociarás con ingeniería, producto, diseño y otras partes interesadas en el diseño y la arquitectura de nuevas funciones.
  • Mentalidad experimental: autonomía y empoderamiento para validar las necesidades de los clientes, conseguir la aceptación del equipo y lanzar rápidamente un MVP.
  • Mentalidad de calidad: insistes en la calidad como pilar fundamental de tus productos de software.
  • Mentalidad analítica: instrumenta y despliega nuevos experimentos de productos con un enfoque basado en datos.
  • Entrega código de alto rendimiento, confiable, escalable y seguro para una plataforma de datos altamente escalable.
  • Supervisa, investiga, clasifica y resuelve los problemas de producción que surjan en los servicios propiedad del equipo.

Qualifications and requirements

  • Inglés fluido (reporta a jefatura en USA y las entrevistas técnicas son 100% en inglés). Adjunta tu CV en inglés para postular.
  • Licenciatura en un campo relacionado con la informática o experiencia laboral equivalente.
  • Más de 6-7 años de experiencia en desarrollo en el campo de la ingeniería de datos (más de 5 años escribiendo PySpark).
  • Experiencia en la creación de canalizaciones de procesamiento de datos a gran escala (cientos de terabytes y petabytes), tanto por lotes como en flujo continuo.
  • Experiencia con ETL/ELT, procesamiento de datos en flujo y por lotes a gran escala.
  • Gran dominio de PySpark, Python y SQL.
  • Experiencia en la comprensión de sistemas de bases de datos, modelado de datos, bases de datos relacionales, NoSQL (como MongoDB).
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake y AWS stack (EKS, EMR, Serverless, Glue, Athena, S3, etc.).
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Gran capacidad para resolver problemas y atención al detalle.

Desirable skills

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.
  • Conocimiento de almacenes de datos gráficos y vectoriales (preferible).

Conditions

  • Trabajo híbrido, vamos a la oficina 3 días a la semana y 2 días desde casa.
  • Almuerzo los días que vayas a la oficina.
  • Un entorno colaborativo y dinámico.
  • Contrato indefinido
  • Formar parte de una empresa internacional con sede en Estados Unidos.
  • Bono de $3.000 USD al año para formación y desarrollo.
  • Remuneración competitiva y oportunidad de crecimiento profesional y personal.
  • Cobertura médica, dental y oftalmológica al 100 % para empleados y familiares a cargo.
  • 5 días extra de vacaciones
  • RSU

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Meals provided Checkr provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Data Analyst / Data Engineer/Solution Architect
  • MAS Analytics
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence
En MAS Analytics creemos que los datos son el motor de la transformación empresarial. Nuestro equipo trabaja mano a mano con organizaciones líderes para convertir información en decisiones estratégicas, utilizando tecnologías de los players más importantes del mercado (AWS, Azure y GCP). Como parte de este equipo, tendrás la oportunidad de participar en proyectos que combinan ingeniería de datos, analítica avanzada y consultoría, en un entorno colaborativo donde la innovación y el aprendizaje continuo son parte del día a día.
Porque aquí no solo desarrollarás tecnología, sino también tu carrera. Te ofrecemos un espacio para crecer, aprender y participar en proyectos que marcan la diferencia en la transformación digital de las empresas. Serás parte de una cultura que valora la innovación, la colaboración y el impacto real.

Originally published on getonbrd.com.

Funciones del cargo

Tu misión será dar vida a soluciones que permitan a nuestros clientes aprovechar al máximo el valor de sus datos. Participarás en la creación de pipelines que aseguren la integración y calidad de la información, diseñarás modelos de datos eficientes y colaborarás en la construcción de arquitecturas en entornos cloud como AWS, GCP o Azure.
Además, serás responsable de desarrollar reportes y dashboards que faciliten la toma de decisiones estratégicas.
Pero este rol va más allá de lo técnico: trabajarás directamente con los clientes, entendiendo sus necesidades, participando en el levantamiento de requerimientos y proponiendo soluciones que impacten en su negocio.
Serás parte de un equipo que no solo entrega tecnología, sino también confianza y valor.

Requerimientos del cargo

Queremos a alguien con hasta un año de experiencia en análisis o ingeniería de datos, con conocimientos en SQL, modelado de datos y herramientas de BI como Power BI o Tableau. Valoramos que tengas nociones en programación (Python o R) y experiencia básica en entornos cloud.
Más allá de lo técnico, buscamos una persona curiosa, proactiva y con habilidades para comunicarse con clientes, capaz de planificar y organizar su trabajo en proyectos dinámicos.
Si te apasiona aprender, resolver problemas y trabajar en equipo, este rol es para ti.

Condiciones

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs MAS Analytics covers some computer repair expenses.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

This job is original from Get on Board.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • BICE VIDA
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Send CV through getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Ingeniero de Datos Junior para desempeñarse en el COE de Datos, perteneciente a la Gerencia de Planificación y Gobierno de Datos.
🧭 El objetivo del cargo es apoyar la construcción, mantenimiento y mejora de los procesos que permiten que los datos lleguen limpios, ordenados y disponibles para que la organización pueda analizarlos y tomar buenas decisiones.
💡Tendrás la oportunidad contribuir aprendiendo y aplicando buenas prácticas, colaborando con ingenieros senior y equipos de negocio, y asegurando que los datos fluyan de forma segura, confiable y eficiente dentro de la plataforma de datos📊.

📋 En este rol deberás:
  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Comprender conceptos fundamentales de ETL/ELT.
  • Validación básica de datos.
  • Identificar errores en ejecuciones o datos.

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 1 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas.
  • Experiencia trabajando en alguna nube (AWS, GCP, Azure)
  • Conocimiento en herramientas de consulta de datos, tales como SQL y Python (nivel intermedio).
  • Participación en proyectos relacionados a datos, independiente de la tecnología utilizada.

✨Sumarás puntos si cuentas con:

  • AWS
  • Terraform
  • Spark/Scala
  • Tableau
  • Github
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos Middle
  • BICE VIDA
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

This offer is exclusive to getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un/a Ingeniero/a de Datos Middle para integrarse al COE de Datos e IA, perteneciente a la Gerencia de Planificación y Gobierno de Datos.

🚀 Objetivo del cargo

Apoyar en el diseño e implementación de soluciones tecnológicas asociadas al manejo de datos que permitan fomentar el uso y la toma de decisiones basadas en datos a nivel compañía. a

Se espera que pueda liderar iniciativas dentro de la misma índole (datos) con el apoyo de un Ingeniero de Datos Senior o del Líder de Datos. Aplicar buenas prácticas de arquitectura y gobernanza, y colaborar con áreas de negocio, analítica y TI para habilitar un ecosistema de datos moderno, escalable y seguro ☁️📊

🔍 Principales funciones:

  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Asegurar el correcto uso de los servicios AWS en términos de usabilidad y costos.
  • Diseñar e implementar soluciones automatizadas que consideren los lineamientos de arquitectura y ciberseguridad de la compañía

✨ Si te motiva trabajar con datos, tecnología y generar impacto en el negocio, ¡te invitamos a postular y ser parte de BICE Vida!

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 3 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas y 2 años en AWS.
  • Conocimiento y experiencia trabajando en AWS (Intermedio o avanzado): A nivel práctico, no sólo académico, servicios como: Lambda Function, Glue Jobs (Spark y PythonShell), Glue Crawlers, DMS, Athena, Lake Formation, EventBridge, Step Functions.
  • Experiencia y conocimento en Herramientas de consulta de datos (SQL Intermedio o Avanzado y Python Intermedio o Avanzado) y versionamiento de códigos fuentes.
  • Participación en proyectos relacionados a datos ( Ingeniero de Datos p Analista de Datos trabajando en modelamiento de datos).

✨Sumarás puntos si cuentas con:

  • Terraform
  • Spark
  • Tableau
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Semi Senior Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Web server Virtualization
BC Tecnología es una consultora de TI especializada en servicios IT, con foco en diseñar soluciones y formar equipos que acompañen a clientes en sectores como financiero, seguros, retail y gobierno. El proyecto en curso busca a un/a Semi Senior Data Engineer para un equipo orientado a la gestión de datos y la construcción de pipelines robustos. El objetivo es habilitar flujos de datos eficientes, escalables y seguros, alineados a prácticas de gobierno de datos, sinergias con arquitectos y líderes técnicos, y entrega continua de valor al negocio.
Trabajarás en un entorno que premia la colaboración, la innovación y la mejora continua, con un mix de trabajo híbrido en Las Condes y presencia colaborativa cuando se requiera, para asegurar la cohesión técnica y la calidad de los entregables.

© getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines de datos eficientes para ingesta, transformación y disponibilización de datos, priorizando escalabilidad y rendimiento.
  • Asegurar la calidad, consistencia y confiabilidad mediante pruebas y validaciones técnicas a lo largo del ciclo de datos.
  • Implementar y mantener flujos CI/CD en entornos de desarrollo y producción para pipelines de datos.
  • Diseñar soluciones avanzadas con resiliencia, idempotencia y arquitecturas orientadas a eventos (event-driven).
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje, promoviendo prácticas de data discipline.
  • Optimizar procesos y estándares de ingesta y transformación, proponiendo mejoras continuas y buenas prácticas.
  • Colaborar estrechamente con arquitectos y líderes técnicos para asegurar el cumplimiento de lineamientos y arquitectura de referencia.

Requisitos y perfil

Estamos buscando un/a profesional con al menos 2 años de experiencia diseñando y construyendo pipelines de datos. Se requiere dominio avanzado de Python, Spark y SQL, y experiencia trabajando en AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia en arquitecturas Lakehouse (Delta Lake, Apache Iceberg o Apache Hudi).
Competencias técnicas complementarias incluyen visión de datos, capacidad para resolver problemas complejos, enfoque en calidad y buenas prácticas de pruebas, y experiencia en entornos de entrega continua. Se valora pensamiento analítico, proactividad, creatividad y habilidad para comunicar resultados a equipos multidisciplinarios. Se ofrece un entorno de aprendizaje y desarrollo contínuo, con foco en crecimiento profesional y trabajo colaborativo.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist Senior Freelance AWS/Sagemaker
  • CoyanServices
Python SQL Virtualization Big Data

CoyanServices busca apoyar a un cliente regional a través de una empresa tecnológica privada. El proyecto es 100% remoto y freelance, abierto a profesionales de cualquier país de Latinoamérica. Trabajarás en un entorno tecnológico moderno, con foco en soluciones analíticas para decisiones estratégicas. El equipo utiliza AWS para desplegar soluciones de ML/AI y necesitamos un Data Scientist Senior para diseñar, entrenar y desplegar modelos end‑to‑end, estandarizar ingesta y gobierno de datos en el Data Lake, y traducir insights técnicos en productos analíticos utilizables para decisiones de negocio.

Objetivos del rol:

Diseñar, entrenar y desplegar modelos de ML/AI end-to-end sobre infraestructura AWS.

Estandarizar procesos de ingesta, limpieza y gobierno de datos en el Data Lake.

Traducir insights técnicos en productos analíticos útiles para la toma de decisiones.

Exclusive to Get on Board.

Funciones

Ingeniería de datos: Pipelines en S3, Glue, Lambda, Athena. Feature engineering, validación y monitoreo de calidad.

Modelado estadístico y ML: Regresión, clasificación, series de tiempo, NLP. Evaluación rigurosa y documentación técnica.

Deployment y MLOps: Productización en SageMaker/Lambda. CI/CD, versionamiento y monitoreo de modelos.

Análisis y comunicación: Dashboards, storytelling y soporte a decisiones estratégicas.

Gobierno y ética de datos: Mejores prácticas, documentación, reproducibilidad y cumplimiento normativo.

Requisitos y perfil

Formación en Ingeniería, Estadística, Matemáticas, Ciencias de la Computación o afines.

Python avanzado (pandas, numpy, scikit-learn, PyTorch/TensorFlow deseable).

Experiencia comprobable con AWS: S3, Athena, Data Lake, Lambda, SageMaker Studio.

Sólida base en estadística aplicada e inferencia. • Experiencia completa en ciclos de vida ML/AI.

SQL avanzado (Athena, Presto, Redshift).

Control de versiones, documentación y testing de modelos/datos.

Deseables: Conocimientos en PySpark o SparkSQL. • Visualización con herramientas como Power BI.

Habilidades blandas

Pensamiento crítico y enfoque científico.

Autonomía, comunicación efectiva y colaboración.

Curiosidad y aprendizaje continuo.

Beneficios

Freelancer. Oportunidad de trabajar con una empresa tecnológica líder y un cliente regional. Modalidad 100% remota, flexible, con posibilidad de crecimiento profesional. Participación en proyectos estratégicos y exposición a tecnologías punteras en AWS y ML/AI. Agenda y horarios acordes al trabajo remoto. Si te interesa, te invitamos a aplicar para conversar sobre el encaje y próximos pasos.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Agile Git Virtualization Amazon Web Services
BC Tecnología, una consultora de TI con enfoque en soluciones para clientes en finanzas, seguros, retail y gobierno, busca un Data Engineer AWS para un proyecto orientado a arquitecturas Lakehouse y pipelines de datos escalables. Trabajarás en un entorno híbrido, con énfasis en ingesta, procesamiento y gobierno de datos, asegurando calidad y observabilidad de flujos de datos en un ecosistema AWS.

Apply exclusively at getonbrd.com.

Funciones del rol

  • Diseñar e implementar pipelines de datos escalables en AWS y entornos Lakehouse.
  • Desarrollar ingestas eficientes, transformaciones y consumo de datos con buena gobernanza y calidad.
  • Configurar monitoreo, logging y observabilidad de pipelines con herramientas de AWS y terceros.
  • Trabajar con herramientas como AWS Glue, Glue Catalog, Lambda, Step Functions, EventBridge, CloudWatch, S3, Redshift/Serverless/Spectrum, Athena, Airflow, Terraform, GitHub, Jira y Confluence.
  • Colaborar en equipos multidisciplinarios para entregar soluciones robustas y alineadas a las necesidades del negocio.

Requisitos y perfil

  • Experiencia demostrable como Data Engineer enfocado en AWS y arquitecturas Lakehouse.
  • Conocimientos en patrones de ingesta y consumo de datos, gobernanza y calidad de datos.
  • Dominio de herramientas AWS mencionadas y experiencia en orquestación con Airflow y Terraform.
  • Buenas prácticas de monitoreo, observabilidad y performance de pipelines.
  • Capacidad de diseño, documentación y trabajo en entornos Agile.
  • Espíritu de aprendizaje continuo, proactividad y habilidades de comunicación para coordinar con equipos internos y clientes.

Deseables

  • Certificaciones AWS relacionadas con data (por ejemplo, AWS Certified Data - Specialty).
  • Experiencia en Spark/EMR, Redshift Serverless, Glue Studio o herramientas equivalentes.
  • Conocimientos de DBT y prácticas de calidad de datos en Lakehouse.
  • Experiencia en entornos regulados y cumplimiento de seguridad de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2600 Full time
DBA Oracle
  • Coderslab.io
Python SQL Oracle Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply directly from Get on Board.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).
Habilidades:
- Competencia avanzada en administración de bases de datos Oracle, incluyendo versiones recientes (Oracle 19c o superior).
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM (Automatic Storage Management), y Oracle Multitenant.
- Experiencia en Oracle Cloud Infrastructure (OCI) y otras nubes públicas, como Azure o AWS (deseable).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- Conocimientos en PLSQL y tunning a sentencias SQL

Condiciones

Disponibilidad: Inmediata.
Horario de Chile

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2400 Full time
Consultor Científico de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Data Analysis SQL

🚀 ¡Estamos buscando talento para el equipo Lab de Microsystem! ⚗️

Si te gustan los datos, la programación y los desafíos que realmente generan impacto, acá hay una oportunidad muy entretenida. Estamos desarrollando proyectos innovadores ligados a Machine Learning, ingeniería y ciencia de datos: desde modelos predictivos de pesca (sí, con datos reales y complejos 👀), hasta modelos bancarios inteligentes que anticipan comportamientos y mejoran decisiones de negocio.

Buscamos a alguien motivado, curioso y con ganas de aprender tecnologías de punta. Alguien que disfrute mezclar lo técnico con lo consultivo: entender al cliente, su contexto y transformar eso en modelos funcionales y útiles.

Trabajarás con un equipo joven, colaborativo y con experiencia 🤓, en un ambiente donde se prueba, se crea y se innova. Si te gusta programar, experimentar y resolver problemas reales, este es tu lugar 💪.

¿Te interesa o conoces a alguien? ¡Hablemos! 🚀

Apply directly from Get on Board.

Funciones del cargo

1. Levantamiento y entendimiento del negocio con el cliente

  • Participar en reuniones con clientes para comprender sus necesidades, procesos, problemas y expectativas.
  • Traducir requerimientos de negocio en objetivos analíticos y diseños de modelos.
  • Presentar hallazgos, resultados y recomendaciones de manera clara y comprensible.

2. Preparación, exploración y análisis de datos

  • Recopilar, limpiar y transformar datos provenientes de distintas fuentes.
  • Realizar análisis exploratorio (EDA) para descubrir patrones, anomalías y oportunidades de modelamiento.
  • Definir y construir pipelines de preparación de datos cuando sea necesario.

3. Construcción y entrenamiento de modelos predictivos

  • Diseñar, programar y entrenar modelos de Machine Learning (supervisados y no supervisados).
  • Seleccionar técnicas adecuadas según el problema: regresión, clasificación, series de tiempo, clustering, árboles, ensembles, etc.
  • Ajustar, validar y optimizar modelos para maximizar desempeño y robustez.

4. Implementación y despliegue de modelos

  • Implementar pipelines end-to-end: desde ingesta de datos hasta predicciones automatizadas.
  • Trabajar con herramientas y entornos de desarrollo modernos (Python, Jupyter, Git, APIs, etc.).
  • Colaborar con equipos Dev/Data Engineering para integrar los modelos en producción.

5. Documentación y comunicación

  • Documentar procesos, decisiones técnicas, métricas, versiones de modelos y flujos de trabajo.
  • Preparar presentaciones y reportes para explicar resultados a stakeholders técnicos y no técnicos.

6. Iteración, mejora continua y acompañamiento al cliente

  • Monitorear el rendimiento de los modelos y proponer mejoras.
  • Acompañar al cliente en el uso, interpretación y adopción del modelo.
  • Levantar nuevas oportunidades de mejora o proyectos relacionados.

7. Participación activa en el equipo Lab

  • Compartir aprendizajes, buenas prácticas y nuevos enfoques con el equipo.
  • Explorar tecnologías emergentes y sugerir innovaciones aplicables a los proyectos.

Requerimientos del cargo

Requisitos Técnicos (Hard Skills)

  • Formación en Ingeniería, Estadística, Matemáticas, Computación o carrera afín.
  • Experiencia comprobable en construcción de modelos predictivos (regresión, clasificación, series de tiempo, clustering, etc.).
  • Dominio de Python para ciencia de datos (pandas, scikit-learn, NumPy, matplotlib, etc.).
  • Conocimientos sólidos en limpieza, transformación y análisis exploratorio de datos (EDA).
  • Manejo de bases de datos y consultas SQL.
  • Conocimiento en APIs REST e integración de datos.
  • Capacidad para construir pipelines end-to-end de ML (ingesta, entrenamiento, evaluación, despliegue).
  • Manejo a nivel básico de herramientas analíticas como Power BI y/o Tableau para exploración y entendimiento de datos.
  • Deseable: experiencia en ML Ops, automatización, versionado de modelos o despliegue en la nube (AWS, Azure, etc.).

Requisitos Interpersonales (Soft Skills)

  • Habilidad para comunicarse claramente con clientes no técnicos.
  • Capacidad de levantar requerimientos, entender el contexto del negocio y traducirlo a problemas analíticos.
  • Buenas habilidades de presentación y storytelling con datos.
  • Proactividad, autonomía y ganas de aprender tecnologías nuevas.
  • Trabajo colaborativo en equipos multidisciplinarios.

Otros Deseables

  • Experiencia en consultoría o interacción directa con clientes.
  • Conocimiento en herramientas de visualización adicionales (Tableau, Looker, Power BI, etc.).
  • Inglés intermedio para lectura de documentación y soporte técnico.
  • Conocimiento de metodologías como CRISP-DM y otras a fines.
  • Conocimiento en otros lenguajes (TypeScript, JavaScript, etc.)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Education stipend Microsystem covers some educational expenses related to the position.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $1900 - 2500 Full time
Data Engineer (Azure / AWS)
  • Devups
Python SQL Virtualization Amazon Web Services

En Devups, ofrecemos un servicio de staff augmentation que permite incorporar desarrolladores y técnicos a tu empresa sin gestionar reclutamiento, contratación ni costes asociados. Nuestro enfoque flexible facilita añadir, intercambiar o reducir recursos de desarrollo de forma rápida, manteniendo la responsabilidad y reduciendo la fricción operativa. Trabajamos para que nuestros clientes escalen sus capacidades tecnológicas con rapidez y sin la carga de una estructura interna permanente.

Como parte de nuestro equipo, el proyecto de Data Engineering se centrará en diseñar soluciones robustas y escalables para flujos de datos en la nube, colaborando con analítica y ciencia de datos para decisiones basadas en datos de calidad. Buscamos un perfil que contribuya a la modernización de pipelines, data lakes y data warehouses, aplicando buenas prácticas de seguridad, gobernanza y costo-eficiencia para entornos Azure y AWS.

This job is exclusive to getonbrd.com.

Funciones

  • Diseñar y desarrollar pipelines ETL/ELT en entornos cloud (Azure Data Factory, Databricks, Synapse; AWS Glue, Lambda, S3).
  • Integrar, transformar y limpiar grandes volúmenes de datos provenientes de múltiples fuentes para su consumo en analítica y ML.
  • Administrar y optimizar data lakes y data warehouses (Snowflake, Redshift, Synapse, BigQuery según el stack del cliente).
  • Implementar versionado, gobernanza, seguridad y monitoreo continuo de datos; gestionar costos y performance tuning en nube.
  • Colaborar estrechamente con equipos de analítica, ciencia de datos y desarrollo para entregar soluciones centradas en negocio.
  • Participar en prácticas de CI/CD y, si aplica, contenerización con Docker y flujos de orquestación (Airflow, Prefect o similar).

Descripción

Buscamos un Data Engineer con experiencia en el diseño, construcción y optimización de pipelines de datos en la nube ( Azure o AWS ). El objetivo es asegurar el flujo confiable, escalable y seguro de datos desde múltiples fuentes hacia sistemas analíticos o de machine learning, soportando decisiones de negocio basadas en información de calidad. Requisitos clave: +3 años de experiencia en Data Engineering, experiencia en Azure (Data Factory, Databricks, Synapse) o AWS (Glue, Redshift, Lambda, S3), sólidos conocimientos en Python y SQL, modelado de datos, pipelines, APIs y orquestación (Airflow, Prefect o similar), inglés técnico. Se valoran Docker, CI/CD, herramientas de MLOps y certificaciones en Azure o AWS. Ofrecemos un proyecto desafiante con tecnologías cloud y trabajo remoto con horarios flexibles, en un equipo técnico de alto nivel.

Desirable

Experiencia adicional en seguridad de datos, costos y performance tuning en cloud. Conocimientos de seguridad de datos, cumplimiento de normativas y experiencia con herramientas de monitoreo y observabilidad. Capacidad para trabajar de forma autónoma, con buen manejo de prioridades y comunicación clara en entornos multiculturales. Preferible experiencia trabajando en proyectos con impacto directo en negocio y con clientes o equipos remotos.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Data Scientist
  • Artefact LatAm
Python Analytics Git SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Official source: getonbrd.com.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Ingeniero/a de Datos / AI
  • Devups
Python Agile MySQL PostgreSQL
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Apply directly at getonbrd.com.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 3000 Full time
Jefe de Proyecto
  • Microsystem
  • Santiago (Hybrid)
Python Agile Virtualization Project Manager

🚀 ¡En Microsystem Lab buscamos a nuestro próximo Jefe de Proyectos! 💡
Somos el partner tecnológico que las empresas necesitan para estar dentro de la vanguardia tecnológica. Co-creamos soluciones donde la IA, el Desarrollo de Software y los Datos convergen.

Buscamos a un Jefe de Proyecto que sea el pilar de comunicación de nuestros proyectos. Necesitamos a alguien expresivo, que entienda que una comunicación clara y constante es el pilar fundamental para la realización de un buen proyecto. Le tiene que apasionar la computación, debe entender la lógica técnica de lo que construimos (desde arquitecturas multi-agentes y RAGs hasta Data Lakehouses en AWS) y traducir este mundo complejo tanto al equipo como al cliente.

Si te apasiona estar "sobre la ola" de la vanguardia tecnológica, estás orientado a compromisos y sabes mover las piezas necesarias para que el equipo llegue a la meta en la fecha pactada, ¡queremos que seas parte de nuestro equipo! 💪

© getonbrd.com.

Responsabilidades del Puesto

  1. *Comunicación como Eje Central *🗣️: Liderar la comunicación del proyecto de forma expresiva y constante, asegurando que el cliente y el equipo estén siempre alineados y sin puntos ciegos.
  2. *Gestión de Compromisos y "Enforcer" de Plazos *⏱️: Velar por el cumplimiento de las fechas. Tu misión es asegurar que los hitos se alcancen, empujando al equipo con liderazgo para cumplir los compromisos adquiridos.
  3. *Gestión Híbrida de Proyectos* 🔄: Orquestar el trabajo usando metodologías ágiles para el desarrollo interno y metodologías convencionales para el control de hitos y reportabilidad estratégica hacia el cliente.
  4. *Traducción Técnica y Consultoría* 💻: Entender qué estamos haciendo a nivel de código y arquitectura para gestionar expectativas reales y proponer soluciones valiosas.
  5. *Gestión de Stakeholders (Cliente + Equipo)* 🤝: Actuar como el puente de confianza, gestionando la presión externa y motivando al equipo técnico hacia la excelencia en el delivery.

Funciones del cargo

Requisitos Técnicos (Hard Skills)

  • Formación: Ingeniería en Computación, Civil, Industrial o carrera afín con fuerte base tecnológica.
  • Experiencia: 2+ años gestionando proyectos de software, IA o datos.
  • Pasión por la Computación: Debes conocer conceptos como GenIA, RAGs, Python, Cloud (AWS) y pipelines de datos. No programarás, pero sí debes entender y disfrutar la conversación técnica.
  • Metodologías: Dominio de Scrum/Kanban y gestión tradicional (Gantt, ruta crítica).
  • Herramientas: Jira, Project y sistemas a fines.

Requisitos Interpersonales (Soft Skills)

  • Comunicador Nato: Capacidad expresiva sobresaliente, asertividad y proactividad.
  • Orientación al Delivery: Enfoque en el cumplimiento de fechas y resultados de calidad.
  • Liderazgo de Ejecución: Capacidad para tomar el mando, inspirar responsabilidad en el equipo y que se orienten a los resultados sin perder la colaboración.

Suma puntos

  • Certificaciones Oficiales: PMP (PMI), CSM (Certified Scrum Master) o certificaciones en metodologías ágiles a escala.
  • Dominio de CRISP-DM: Entender el ciclo de vida de un proyecto de ciencia de datos es un plus gigante para hablar el mismo idioma que el equipo Lab.
  • Inglés Intermedio/Avanzado: Capacidad para leer documentación técnica y, eventualmente, interactuar con partners o clientes internacionales.
  • Experiencia en Consultoría: Haber trabajado directamente con clientes externos de industrias como Banca, Retail, Pesca o Salud (nuestros sectores fuertes).
  • Manejo de herramientas de visualización: Si sabes moverte en Power BI, Tableau o Looker Studio para presentar resultados, nos encantará.
  • Conocimiento en Nube: Estar familiarizado con el ecosistema AWS (nuestra base) o Azure.

Lo Que Ofrecemos

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Shopping discounts Microsystem provides some discounts or deals in certain stores.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Project Manager de Tecnología
  • Factor IT
  • Medellín (Hybrid)
Agile Excel Business Intelligence Virtualization

FactorIT es una empresa líder en tecnología y soluciones de datos con presencia en 8 países de Latinoamérica. Nos encontramos en plena expansión, enfocándonos en Data & Analytics, Transformación Digital e IA para grandes clientes, con proyectos de Modernización Digital y Analítica de Datos para el sector financiero y otras industrias. Buscamos un Project Manager que dirija iniciativas estratégicas, gestionando alcance, presupuesto y relaciones con stakeholders para entregar valor, rentabilidad y resultados medibles. El rol reporta a la Gerencia de Operaciones y se desarrollará en un entorno dinámico y colaborativo, con foco en entregar soluciones tecnológicas de alto impacto y un camino claro hacia la transformación digital.

This job offer is on Get on Board.

Funciones principales

  • Gestión Integral del Proyecto (E2E): Liderar la planificación, ejecución y cierre de proyectos de Modernización Digital y Analítica de Datos, asegurando hitos técnicos y estándares de calidad.
  • Gestión Financiera y de Alcance: Responsable de la rentabilidad del proyecto; controlar presupuesto, gestionar EAC semanalmente y blindar el proyecto ante cambios para mantener el margen.
  • Relaciones con el Cliente: Ser la cara visible ante stakeholders; gestionar expectativas, negociar plazos o cambios de alcance y traducir requerimientos de negocio en soluciones técnicas viables.
  • Liderazgo de Equipos Técnicos: Dirigir squads multidisciplinarios (Ingenieros de Datos, Arquitectos Cloud, Desarrolladores), desbloquear impedimentos y asegurar ritmo de entrega (Velocity).
  • Visión Comercial: Identificar oportunidades de mejora y necesidades para upselling de servicios de FactorIT dentro del cliente actual.

Requisitos y perfil buscado

Experiencia General: 2 a 4 años en gestión de proyectos de tecnología (IT).

Experiencia específica en Ingeniería de Datos, BI, Migración a Nube o Desarrollo de Software (al menos 2 años).

Conocimiento técnico en ecosistemas de nube (Azure, AWS o GCP). Capacidad para entender arquitecturas de alto nivel.

Herramientas: Jira, MS Project, Smartsheet o Excel avanzado.

Metodologías: certificación o experiencia como Scrum Master o en entornos ágiles.

Idioma: inglés intermedio-avanzado (lectura técnica y reuniones).

Habilidades blandas: negociación asertiva, comunicación técnica con negocio, orientación a resultados y rentabilidad, manejo de crisis y liderazgo de servicio. Capacidad para traducir problemas técnicos en impactos de negocio, mantener EBITDA del proyecto y motivar al equipo ante desafíos.

Deseables

Certificaciones: PMP ( PMI ), Azure Fundamentals AZ-900, DP-900. Conocimientos: Microsoft Fabric, Databricks, Synapse o Power BI.

Formación: Ingeniería Civil Informática/Industrial o Sistemas. Experiencia en consultoría y/o trabajar con firmas de servicios de TI gestionando clientes externos y facturación.

Beneficios

Modalidad de trabajo híbrida desde Medellín, con flexibilidad horaria para un balance entre vida personal y profesional. Ambiente colaborativo, dinámico y con tecnologías de última generación que favorecen el crecimiento profesional e innovación tecnológica. Paquete salarial competitivo acorde a experiencia, con cultura inclusiva que valora diversidad, creatividad y trabajo en equipo. Participación en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero, dentro de una organización que promueve innovación y desarrollo profesional continuo.

VIEW JOB APPLY VIA WEB
Gross salary $3000 - 5000 Full time
Technical Product Lead
  • Flat Fee Shipping
Python SQL Virtualization Amazon Web Services

THE ROLE
We are looking for a Technical Product Lead to serve as the central orchestrator between our fulfillment operations team, our account managers, and our four development teams. This is a high-impact leadership role for someone who can translate complex logistics and ecommerce workflows into clear, actionable technical specifications, project scopes, and visual mockups that our development teams can execute against. You need to be genuinely great with people and skilled at navigating the dynamics that come with leading technical teams. Developers can be passionate and opinionated, and sometimes that shows up as pushback, defensiveness, or a default to “we can’t do it.” You know how to push teams to move fast while keeping morale and trust intact. You earn respect through competence and fairness, not authority. If you’re the kind of leader who gets the best out of people even when the work is hard and the pace is relentless, this is your role.

Apply to this job opportunity at getonbrd.com.

What You Will Do

  • Orchestrate four development teams (≈10 developers) across OMS, WMS, IMS, and the client portal to ensure alignment, clear handoffs, and accountability.
  • Translate business requirements into technical specs by partnering with the fulfillment team and account managers; document each workflow with detailed, developer-ready instructions.
  • Define and standardize terminology to create a shared language for operations, account management, and engineering.
  • Build mockups and visual prototypes using AI-powered tools (e.g., Bolt, Replit, Lovable, Claude Code) to communicate design and functionality before development begins.
  • Scope and manage projects with detailed briefs, milestones, deliverables, acceptance criteria, and timelines.
  • Drive feature development end-to-end—from concept through specification, development, QA, and deployment.
  • Hold teams accountable, run regular progress check-ins, remove blockers, and ensure on-time delivery to specification.
  • Serve as the primary liaison between non-technical stakeholders and technical teams to prevent miscommunication and align expectations.

Required Skills & Experience

We are seeking a semi-technical leader who can read code, understand APIs and database schemas, and communicate fluently about Python, SQL, AWS, and modern development workflows. Candidates should be proficient with AI-powered prototyping tools and have direct experience in ecommerce or fulfillment technology. Experience in 3PL or fulfillment platforms is a strong plus. You must be an exceptional communicator capable of translating complex technical concepts for non-technical stakeholders, with thorough, unambiguous documentation. English fluency (spoken, verbal, listening) is non-negotiable, as you will collaborate with operations teams, account managers, developers, and leadership daily. You should be self-driven, accountable, and able to manage multiple workstreams in a fast-paced environment. Prior leadership of technical teams, without relying on authority, is highly valued.

Desirable Qualifications

Experience in ecommerce fulfillment or logistics tech, a track record leading multi-disciplinary teams, and comfort with shifting priorities in a growing startup. Hands-on familiarity with OMS/WMS/IMS ecosystems, strong documentation practices, and the ability to influence product direction through data-driven decision-making are highly desirable. Exposure to AI-assisted design and development tools, and experience communicating across cross-functional groups in remote environments, will help you thrive in this role.

Benefits & How to Join

We offer a fully remote, fast-moving environment with direct access to the founder and a significant influence on product and technology roadmap. This is a ground-floor opportunity to shape enterprise-grade software at a rapidly growing company, with performance-based bonuses tied to milestones. You will be the pivotal bridge between operations and technology and will contribute to a high-impact product used by hundreds of ecommerce brands. Our compensation is tied to results, with a clear path for growth. This is a fully remote role and a critical early hire in our scale-up journey.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2600 - 3200 Full time
IT Business Architect
  • CoyanServices
Agile DevOps Microservices Soporte técnico

CoyanServices busca un IT Business Architect(tiempo completo, remoto LATAM) para liderar la traducción de objetivos de negocio en arquitectura tecnológica y el diseño de soluciones digitales integradas, seguras y escalables. El rol actúa como puente entre negocio y TI, definiendo y gobernando arquitecturas empresariales y mapas de procesos (BPM), integraciones SAP / APIs / microservicios, y soluciones cloud (AWS); además, impulsa DevOps y prácticas ágiles para asegurar valor, calidad, desempeño y alineamiento con la estrategia digital. Deberás evaluar tecnologías, coordinar con stakeholders, documentar y mantener el roadmap de aplicaciones, y supervisar ciclo de vida, pruebas (unitarias, integrales, UAT, performance) y cumplimiento de políticas y estándares.

Find this job on getonbrd.com.

Objetivos del rol:

  • Conectar la estrategia de negocio con la arquitectura tecnológica, definiendo soluciones digitales integradas, seguras y escalables que soporten los procesos clave de la compañía.
  • Traducir los requerimientos funcionales y objetivos de negocio en diseños de arquitectura aplicativa y de infraestructura.
  • Liderar el diseño, coordinación y validación de soluciones tecnológicas asegurando valor, calidad, desempeño y alineamiento con la estrategia digital.
  • Actuar como puente entre negocio y tecnología, integrando equipos multidisciplinarios (negocio, IT, desarrollo, seguridad y operaciones)

Responsabilidades:

Relación con Stakeholders

  • Promover la propuesta de valor de la estrategia de TI ante los stakeholders de negocio.
  • Participar activamente en reuniones, planes y estrategias del proceso asignado.
  • Identificar y gestionar conflictos, asegurando la alineación entre autonomía y objetivos del negocio.

Análisis y Estrategia Tecnológica

  • Investigar y analizar soluciones de tecnología del mercado, identificando tendencias y proveedores relevantes.
  • Evaluar y proponer tecnologías emergentes que optimicen los procesos empresariales.
  • Establecer alianzas estratégicas con proveedores locales, regionales e internacionales.

Diseño y Presentación de Soluciones

  • Definir junto a arquitectos técnicos y de software los atributos de calidad, diseño aplicativo e infraestructura.
  • Analizar requerimientos, problemas y oportunidades para proponer soluciones de valor.
  • Negociar beneficios, costos y compromisos con los sponsors y equipos de operación.

Control y Gobierno de Soluciones

  • Asegurar la integridad técnica y funcional de las soluciones en desarrollo e implementadas.
  • Supervisar el cumplimiento de políticas, metodologías y buenas prácticas.
  • Gestionar el ciclo de vida de las aplicaciones, incluyendo deuda técnica y obsolescencia.
  • Coordinar planes de prueba técnicos, funcionales y de seguridad (unitarias, integrales, UAT, performance).

Prototipado y Entrega de Soluciones

  • Liderar la construcción de prototipos funcionales, validando iterativamente con el cliente.
  • Integrar y mantener el gobierno de activos de arquitectura (negocio, datos, aplicaciones, tecnología).
  • Coordinar la entrega y soporte de las soluciones, colaborando con equipos de proyectos y operaciones.

Documentación y Mejora Continua

  • Documentar mapas de aplicaciones, datos e integraciones de los sistemas a su cargo.
  • Mantener actualizada la arquitectura y proponer mejoras a estándares y lineamientos.
  • Definir y mantener el roadmap de aplicaciones alineado a la estrategia corporativa.

Requisitos Técnicos:

  • Experiencia en arquitectura de soluciones y procesos digitales (mínimo 5 años).
  • Conocimientos sólidos en BPM, arquitectura empresarial, integración de sistemas, APIs y microservicios.
  • Experiencia en plataformas cloud (AWS) y entornos híbridos.
  • Conocimiento en metodologías Agile / Scrum y prácticas DevOps.
  • Capacidad para liderar iniciativas de transformación digital y gestión de cambio.
  • Deseable certificación TOGAF u otras en arquitectura de TI.
  • Experiencia en gestión de ciclo de vida de aplicaciones y herramientas de documentación (Confluence, Jira, Visio, ArchiMate).

Habilidades blandas:

  • Comunicación efectiva con equipos técnicos y ejecutivos.
  • Liderazgo colaborativo y enfoque en resolución de conflictos.
  • Pensamiento estratégico y visión de negocio.
  • Capacidad analítica y orientación a resultados.
  • Autonomía, organización y compromiso con la calidad de las soluciones.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $50000 - 50000 USD/year Full time
AI Software Engineer (Hands on)
  • Dante Title
  • McAllen, Texas (In-office)
Python Artificial Intelligence Machine Learning Natural Language Processing

AI Software Engineer – On-site Texas, USA
We are an established company in the real estate and financial services sector seeking a hands-on AI Software Engineer to design, build, and deploy end-to-end software systems. You will work with backend services, unstructured data, APIs, and third-party integrations, collaborating closely with business teams to deliver reliable, scalable solutions. This role offers direct involvement in production systems and opportunities to grow as the platform evolves. Visa sponsorship, full relocation support, and company-provided housing included. Candidates must be based in Mexico and fluent in English.

Job source: getonbrd.com.

What you’ll do

  • Design, build, and implement AI-powered components used in internal platforms.
  • Develop backend services and APIs that integrate AI with business workflows.
  • Work with unstructured and document-based data to extract actionable insights.
  • Integrate third-party services, including payment systems and external software.
  • Collaborate directly with business stakeholders to translate needs into working solutions.
  • Contribute hands-on to system architecture, deployment, and continuous improvement of the platform.

What we’re looking for

We’re seeking an experienced AI-focused software engineer with a strong background in Applied AI, Machine Learning, or AI-driven software development. The ideal candidate will have:

  • Strong proficiency in Python.
  • Experience building backend systems and APIs.
  • Familiarity with NLP and/or LLM-based tools.
  • Experience handling unstructured or document-based data in production environments.
  • Ability to integrate production software systems with external services and data sources.
  • Comfort with ambiguous problems and delivering practical, maintainable solutions.
  • Fluent English (written and spoken).

Nice to have

Experience with document intelligence, OCR, or Retrieval-Augmented Generation (RAG) systems. Web development experience (React or similar). Cloud platforms (AWS, Azure, or GCP). Background in regulated industries (financial services, insurance, legal, real estate).

Compensation & benefits

Base salary USD 50,000 per year. Visa sponsorship provided. Full relocation support. Company-provided housing (100% covered). Opportunity for long-term growth as the platform and team expand.

Relocation offered If you are moving in from another country, Dante Title helps you with your relocation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Arquitecto de Datos Sr. (Data & AI)
  • Grupo Mariposa
Python Analytics Data Analysis NoSQL

Grupo Mariposa es una corporación multinacional de bebidas y alimentos fundada en 1885, con operaciones en más de 14 países y más de 15,000 colaboradores. Contamos con el portafolio de bebidas más grande de la región y partnerships con líderes globales como PepsiCo y AB InBev. En los últimos años nos hemos expandido globalmente y reorganizado en cuatro unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Buscamos talentos para potenciar nuestra estrategia de crecimiento y llevar alegría y desarrollo a lo largo de la organización. En este rol, tendrás la oportunidad de liderar la arquitectura de datos e IA, diseñando soluciones escalables que habiliten análisis a gran escala y la operacionalización de modelos de ML/IA en entornos de producción.

This job is exclusive to getonbrd.com.

Funciones y responsabilidades

  • Diseñar e implementar arquitecturas de Datos e IA híbridas y escalables (Lakehouse) para soportar ingestión masiva y cargas de trabajo de ML/IA.
  • Definir y estandarizar flujos de trabajo para Data Science, asegurando un ciclo de vida de modelos (MLOps) ágil y robusto.
  • Actuar como referente técnico en Databricks (Unity Catalog, Delta Lake, MLflow), garantizando buenas prácticas de código y rendimiento.
  • Modelar y optimizar esquemas NoSQL para aplicaciones de alto rendimiento y baja latencia.
  • Establecer políticas de gobierno de datos que cubran datasets tradicionales, feature stores y registros de modelos.
  • Colaborar estrechamente con Data Engineers y Data Scientists para cerrar la brecha entre prototipado y despliegue en producción.
  • Liderar iniciativas de arquitectura orientadas a IA, incluyendo patrones de inferencia batch vs. real-time y escalabilidad de modelos.

Descripción y requisitos

Buscamos un Arquitecto de Datos Senior con visión estratégica para liderar el diseño de nuestra plataforma de Datos.
Tu misión será construir cimientos que permitan no solo el análisis de datos a escala, sino también la operacionalización eficiente de modelos de Datos, Machine Learning y soluciones de IA. Debes dominar Databricks y demostrar experiencia llevando modelos a producción, gestionando arquitecturas que soporten analítica avanzada, Se valorará capacidad para definir estrategias de gobierno de datos, MLOps y colaboración transversal entre equipos.

Requerimientos:

  • Más de 5 años de experiencia en Ingeniería de Datos, Arquitectura de Datos o ML Engineering.
  • Dominio experto de Databricks (Unity Catalog, Delta Lake, MLflow).
  • Programación avanzada en PySpark y Python para ingeniería de datos.
  • Experiencia sólida en o integraciones con bases de datos (diseño de esquemas, optimización de queries y escalabilidad).
  • Conocimientos en entornos Cloud (Azure, AWS o GCP).

Deseables:

  • Experiencia con Feature Stores.
  • Conocimiento de herramientas de orquestación (Airflow, Prefect, etc.).
  • Experiencia en architecturas de IA y ML, con prácticas de MLOps (entrenamiento, versionado, despliegue y monitoreo).
  • Familiaridad con despliegue de LLMs o IA Generativa.
  • Certificaciones en Databricks (Data Engineer o ML Practitioner).

Perfil deseable

Se valoran certificaciones en Databricks y experiencia demostrable liderando proyectos de IA en entornos de producción. Capacidad para comunicar resultados técnicos a stakeholders no técnicos y para liderar equipos multidisciplinarios. Enfocado en resultados, con pensamiento analítico y enfoque práctico para resolver problemas complejos de datos a escala.

Beneficios

  • Trabajo remoto
  • Excelente ambiente para proponer e innovar tecnológicamente
  • Ambiente de trabajo colaborativo y dinámico
  • Desarrollo profesional y oportunidades de crecimiento
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Grupo Mariposa provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Generative AI Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Azure
Genesys Tecnologías de Información SpA es una empresa con 35 años de trayectoria en el mercado tecnológico, enfocada en desarrollo de software y servicios de outsourcing TI para desafíos de alto impacto. En este rol participarás en proyectos de Inteligencia Artificial Generativa, colaborando con equipos globales y clientes para convertir modelos avanzados en soluciones productivas. Formarás parte de un equipo multidisciplinario, con matriz en Santiago y operaciones en varias ciudades, orientado a la innovación y la mejora continua. El objetivo es entregar soluciones de IA responsables, escalables y alineadas a las necesidades del negocio.
El proyecto principal implica diseñar, desarrollar e integrar soluciones de IA Generativa, trabajar con modelos LLM y herramientas de MLOps, y contribuir al ciclo completo desde la investigación hasta la puesta en producción. Colaborarás con profesionales de la India y con equipos internos para garantizar entregas de alto impacto y calidad.

Opportunity published on Get on Board.

Funciones principales

  • Participar en el diseño y desarrollo de soluciones de IA Generativa para casos de negocio reales.
  • Trabajar con equipos multifuncionales para definir requisitos, arquitectura y plan de implementación.
  • Apoyar la integración de modelos de IA en entornos productivos y optimizar su rendimiento.
  • Contribuir a la adopción de MLOps, prácticas de IA responsable y seguridad de datos.
  • Investigar nuevas tendencias, proponer mejoras y compartir conocimiento con el equipo.
  • Colaborar con equipos de desarrollo y operaciones para entregar soluciones escalables.

Perfil y requisitos

Buscamos profesionales curiosos y orientados al aprendizaje, con base técnica sólida y motivación real por crecer en IA Generativa. No es necesario dominar todas las herramientas desde el primer día: valoramos el potencial, la curiosidad y la actitud proactiva para aprender y escalar en proyectos complejos.
Formación: Área afín a Computación, Ingeniería, IA o carreras equivalentes.
Experiencia: experiencia inicial en Python y Machine Learning (académica o laboral).
Conocimientos deseados: IA Generativa y LLMs, NLP o Deep Learning; frameworks como PyTorch o TensorFlow; bases de datos vectoriales; herramientas de frameworks de agentes IA; experiencia con nubes (Cloud) como AWS, Azure o GCP; y fundamentos de MLOps. Buena comunicación, actitud proactiva y mentalidad de crecimiento.
Se valora la voluntad de aprender, trabajar con equipos de alta experiencia y la capacidad de generar alto valor mediante soluciones creativas y responsables.

Competencias deseables

Experiencia previa en proyectos de IA Generativa y deployment de modelos en ambientes productivos. Conocimientos en herramientas de orquestación de flujos de trabajo en IA y buenas prácticas de observabilidad y monitoreo. Habilidad para trabajar con equipos distribuidos y comunicarse en inglés título y escrito.

Beneficios y oportunidades

Ofrecemos modalidad de trabajo en sistema «hybrido», combinando presencia en oficinas y trabajo remoto cuando sea posible. Contamos con aprendizaje continuo, acompañamiento de profesionales senior y proyectos desafiantes con impacto real. Buscamos fomentar un excelente ambiente de trabajo, con oportunidades de desarrollo profesional y crecimiento dentro de una empresa con presencia consolidada en Latinoamérica.

VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Senior AI Engineer
  • Niuro
Python Virtualization Amazon Web Services Docker
Niuro connects projects with elite tech teams to deliver cutting-edge technological solutions for leading U.S. companies. As part of our AI-focused initiatives, you’ll join a global team building autonomous, agent-based AI systems and maintaining production-grade AI services. You will work on industrial data projects that demand high reliability, scalability, and robust operational practices. The role emphasizes collaboration with core engineers, product, and leadership to ensure AI systems significantly improve business outcomes while staying aligned with strategic goals. This position offers ongoing training, leadership development, and the opportunity to contribute to long-term, high-impact projects in a fully remote environment.

This company only accepts applications on Get on Board.

What You’ll Do

  • Design, build, and improve AI-driven systems, including agent-based workflows, to solve real-world problems.
  • Hands-on debugging, refactoring, and stabilizing existing AI/LLM systems in production to reduce debt and improve reliability.
  • Develop and integrate AI capabilities through REST APIs and service-oriented architectures (e.g., FastAPI or equivalent).
  • Deploy, monitor, and operate AI services in AWS, ensuring performance, cost-efficiency, and security.
  • Collaborate with engineers to address technical debt, optimize pipelines, and enhance system observability.
  • Communicate progress, risks, and trade-offs clearly to stakeholders and leadership.

Requirements

  • Fluent English (written and spoken).
  • Strong programming skills in Python.
  • Experience working with LLMs (e.g., OpenAI, Anthropic, Bedrock, or similar).
  • Ability to design and build APIs and services (FastAPI or equivalent).
  • Experience deploying and operating services in AWS or other cloud platforms.
  • Hands-on mindset and comfort working in messy, real-world systems.

Nice to Have

  • Experience with agent or multi-agent frameworks (LangGraph, LlamaIndex, LangChain, MCP, etc.).
  • Docker and containerized deployments (Docker, ECS, Gunicorn).
  • Familiarity with monitoring and observability (CloudWatch, Prometheus, Grafana).
  • Experience with semantic search, embeddings, or vector databases.
  • Knowledge of document processing or extraction tools (e.g., Textract).
  • Experience with testing (pytest, Playwright) and basic CI/CD workflows.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4000 Full time
Generative AI Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Azure
Somos una empresa con 35 años en el mercado, con una fábrica de desarrollo de software y servicios de outsourcing. Nuestra matriz está en Concepción y operamos desde Santiago. Buscamos incorporar a un/una Generative AI Engineer para unirse a nuestro equipo de innovación y desarrollo de soluciones avanzadas de Inteligencia Artificial. El proyecto implica diseñar, desarrollar y desplegar soluciones de IA generativa, con foco en modelos de lenguaje de gran tamaño (LLMs), IA multimodal y pipelines escalables que se integren en entornos productivos. Colaborarás con equipos multidisciplinarios para identificar casos de uso, aplicar técnicas de ML y asegurar el cumplimiento de estándares éticos y de privacidad. Este rol te permitirá trabajar en proyectos desafiantes dentro de un entorno dinámico y orientado a la transformación digital de nuestros clientes en Latinoamérica.

Send CV through Get on Board.

Funciones

Desarrollar, ajustar (fine-tuning) y optimizar modelos de IA generativa (LLMs, modelos de difusión, etc.) para distintos casos de uso. Implementar pipelines de IA escalables e integrar los modelos en entornos productivos. Colaborar con equipos multidisciplinarios para identificar casos de uso y entregar soluciones basadas en IA. Investigar tendencias emergentes en IA generativa y aplicar técnicas innovadoras para mejorar el rendimiento de los modelos. Asegurar el cumplimiento de principios éticos de IA y estándares de privacidad de datos. Participar en la definición de roadmaps tecnológicoss y participar en revisiones de código y pruebas de rendimiento.

Descripción

Requisitos y Habilidades: Título profesional o magíster en Computación, Inteligencia Artificial o carrera afín. 5 a 8 años de experiencia en desarrollo AI/ML, con al menos 2 años trabajando en IA generativa. Dominio de Python, TensorFlow y/o PyTorch. Experiencia con bases de datos vectoriales: Azure AI Search, OpenSearch, PgVector, ChromaDB, entre otras. Conocimiento de frameworks de IA agéntica como LangGraph, CrewAI, Autogen u otros. Manejo avanzado de herramientas de desarrollo asistido por IA como Cursor, Claude Code o GitHub Copilot. Fuerte comprensión de LLMs, transformers y modelos de difusión. Experiencia en plataformas cloud (AWS, Azure o GCP) y herramientas de MLOps. Buenas habilidades de comunicación y resolución de problemas. Deseable: experiencia en prompt engineering y RLHF. Conocimientos en IA multimodal (texto, imagen, audio).

Deseables

Experiencia en prompt engineering y RLHF (Reinforcement Learning from Human Feedback). Conocimientos en IA multimodal (texto, imagen, audio). Experiencia trabajando en entornos de desarrollo colaborativo y metodologías ágiles. Capacidad para aprender rápidamente y adaptarse a cambios en un entorno tecnológico en constante evolución.

Beneficios

Ofrecemos contratación por proyecto con condiciones claras en un ambiente laboral dinámico y orientado al desarrollo profesional. Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación. Contamos con equipo multidisciplinario y comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración y el soporte técnico. Si te sumas a nuestro equipo, tendrás la oportunidad de crecer y contribuir al desarrollo de soluciones innovadoras en IA para nuestros clientes.

VIEW JOB APPLY VIA WEB
$$$ Full time
AI Architect Senior
  • Improving South America
JavaScript Java Python Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply directly through getonbrd.com.

Funciones del cargo

Estamos en la búsqueda de un AI Architect SR con manejo de inglés para sumarse a un proyecto de la manos con un cliente enfocado en proporcionar a las empresas herramientas y experiencia necesarias para alcanzar el éxito, cumpliendo con:

  • Diseñar y ejecutar soluciones de IA/ML de punta a punta en plataformas cloud (GCP, AWS), incluyendo ingestión de datos, desarrollo de modelos, despliegue y monitoreo.
  • Liderar y guiar equipos de ingeniería multifuncionales, fomentando un entorno colaborativo y de alto rendimiento.
  • Colaborar con stakeholders para recopilar requisitos, definir el alcance del proyecto y alinear las soluciones técnicas con los objetivos del negocio.
  • Supervisar la modernización y migración de sistemas legacy hacia arquitecturas nativas en la nube, aprovechando tecnologías serverless y basadas en contenedores.
  • Diseñar y gestionar pipelines de CI/CD para flujos de trabajo de ML, asegurando despliegues automatizados, robustos y seguros.
  • Evaluar y seleccionar los frameworks, herramientas y tecnologías de IA/ML más adecuados (por ejemplo, TensorFlow, Scikit-learn, Vertex AI, Generative AI).
  • Desarrollar y aplicar buenas prácticas para la gestión de datos, entrenamiento, validación y gobernanza de modelos.
  • Impulsar la innovación explorando e integrando tecnologías y metodologías emergentes en IA/ML.
  • Garantizar el cumplimiento de estándares de privacidad y seguridad de datos, especialmente en industrias reguladas (por ejemplo, salud, finanzas).

Requerimientos del cargo

  • Nivel de Inglés oral y escrito B2/C1 (intermedio /avanzado) Excluyente.
  • Más de 7 años de experiencia en ingeniería de software, con al menos 4 años en arquitectura de soluciones de IA/ML en la nube.
  • Experiencia comprobada liderando equipos de ingeniería y gestionando proyectos complejos.
  • Amplia experiencia en plataformas cloud (GCP, AWS), incluyendo trabajo práctico con servicios como Vertex AI, Lambda, Cloud Functions, BigQuery, DynamoDB, entre otros.
  • Dominio de lenguajes de programación como Python, Java, JavaScript/TypeScript.
  • Sólido conocimiento de frameworks y herramientas de ML: Generative AI, Document AI.
  • Experiencia con contenedores y orquestación (Docker, Kubernetes, Terraform, Helm).
  • Sólida comprensión de procesos y herramientas de CI/CD (GitLab, AWS CodePipeline, Cloud Build).
  • Excelentes habilidades de comunicación, gestión de stakeholders y planificación de proyectos.

Conditions

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Senior Machine Learning Engineer – Computer Vision
  • Niuro
Python 3D Git DevOps
Niuro connects projects with elite tech teams, delivering autonomous, high-performance engineering groups to top U.S. companies. In this engagement, you will lead the design, implementation, and operation of end-to-end ML solutions for image and video analytics within a mining-industry context. The project emphasizes scalable ML pipelines, robust model quality, and strong MLOps practices to ensure reliable production deployment. You will collaborate closely with cross-functional teams to produce impactful ML products and maintain production-grade delivery standards.

Job opportunity on getonbrd.com.

Key Responsibilities

  • Design and implement robust Computer Vision architectures for training and inference, building end-to-end data pipelines for image and video data.
  • Develop production-grade Python code with testing, logging, documentation, and engineering best practices.
  • Own and advance MLOps practices: CI/CD pipelines, dataset and model versioning, environment management, and monitoring for models and data in production.
  • Optimize models for latency, throughput, and hardware efficiency (GPU/CPU) while maintaining high accuracy through systematic experimentation.
  • Deploy and operate models in production—exposed APIs, batch processing, streaming, or edge deployments.
  • Collaborate with product, data, and business stakeholders to translate requirements into scalable ML solutions and drive continuous improvement.

Requirements

✅ Bachelor’s degree in Engineering, Computer Science, Mathematics, or related field.
✅ 5+ years of experience in Machine Learning / Deep Learning with a strong focus on Computer Vision (object detection, segmentation, tracking, pose estimation, 3D/stereo vision, or video understanding).
✅ Expert Python developer with hands-on experience in at least one DL framework (PyTorch, TensorFlow/Keras, JAX, etc.).
✅ Practical experience with CV libraries such as OpenCV, scikit-image, or similar tools.
✅ Proficient in Docker, Git, and CI/CD or MLOps platforms (e.g., Azure DevOps, GitLab CI, GitHub Actions, MLflow, Kubeflow).
✅ Proven track record deploying and operating ML models in production environments.
✅ Fluent in Spanish (required).

Nice-to-Have

🔸 Experience applying ML in industrial, mining, or edge environments.
🔸 Familiarity with cloud platforms (AWS, Azure, GCP).
🔸 Strong background in model monitoring, data quality, or ML observability.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $4500 - 7500 Full time
Head of Artificial Intelligence
  • Niuro
Python Virtualization Amazon Web Services Artificial Intelligence
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. The Head of AI will join Niuro’s remote-first environment to define and drive the AI strategy across the organization, partnering with the CEO to align technology with business goals. You will lead the design and deployment of scalable, secure AI platforms, modernizing legacy systems while delivering transformative AI capabilities for our clients. This role sits at the intersection of strategic leadership and hands-on technical execution, guiding cross-functional teams and ensuring that AI initiatives translate into measurable business outcomes. You will also help nurture a global, high-performance workforce through mentorship, training, and strong governance around AI programs.

This company only accepts applications on Get on Board.

Key Responsibilities

  • Vision & Strategy: Partner with the CEO to define and execute Niuro's AI roadmap, ensuring alignment with business objectives and market opportunities. Translate strategy into actionable programs with clear milestones and metrics.
  • Architecture Leadership: Serve as the chief AI architect, designing scalable, secure AI-driven systems. Lead the transition from legacy platforms to modern infrastructure while ensuring reliability and compliance.
  • Innovation & Delivery: Drive rapid development of new AI-powered features and services, balancing speed with maintainability and long-term support.
  • Technology Oversight: Guide the use of cloud-based technologies (AWS, Terraform, Kubernetes, Python, Windows Server/IIS, FastAPI). Implement monitoring (CloudWatch, Grafana) and data pipelines (AWS Glue/Lambda) to ensure scalability and observability.
  • People & Stakeholders: Communicate complex technical concepts clearly to executives, clients, and internal teams. Mentor senior engineers and foster a culture of scientific rigor and responsible AI.

Required Skills & Experience

8+ years in software engineering, data science, or AI with at least 3+ years in leadership. Proven track record deploying AI/ML solutions at scale in production environments. Strong systems design background and experience with cloud platforms (AWS preferred). Advanced Python programming skills; experience with modern AI frameworks and LLMs. Demonstrated success modernizing legacy platforms and delivering scalable, maintainable AI solutions. Exceptional executive-level communication abilities and a talent for translating technical concepts into business value. Fluent in English; Spanish or Portuguese is a plus.

Desirable Skills & Experience

Experience in regulated industries (fintech, govtech) and products with active users and customer support operations. Familiarity with AWS AI services, container orchestration (Kubernetes/ECS), and MLOps. Exposure to LLM-based automation and data engineering workflows. A proactive, entrepreneurial mindset with a bias for action and strong collaboration skills.

Benefits & Perks

We offer the chance to participate in impactful, technically rigorous industrial data projects that drive innovation and professional growth. Niuro supports a 100% remote work model, enabling global flexibility. We invest in career development through ongoing training and leadership opportunities, ensuring continuous growth. Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment. Joining Niuro means being part of a global community with strong administrative support that enables you to focus on impactful work.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
AI Engineer
  • Niuro
Python Virtualization Amazon Web Services Docker
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. We focus on innovative and challenging projects that foster continuous professional growth and technological excellence.

Apply to this job opportunity at getonbrd.com.

About the Role:

We’re looking for an AI Engineer to help us develop intelligent agent systems that automate the processing of structured and semi-structured documents. Your work will improve user experience and internal workflows, focusing on automation, accuracy, and scalability.

Requirements:

  • Fluent English (written and spoken)
  • Strong programming skills in Python
  • Experience working with large language models (LLMs) such as OpenAI API or similar
  • Ability to design and build APIs using FastAPI
  • Familiarity with AWS or other cloud platforms

Nice-to-have:

  • Experience with Docker, Gunicorn, and Amazon ECS
  • Knowledge of Amazon Bedrock, Amazon Textract, BAML, and Pydantic AI
  • Familiarity with Aestiva HTML/OS and Streamlit for prototyping
  • Experience with frontend testing using Playwright and backend testing using pytest
  • Experience with monitoring tools like CloudWatch, Prometheus, and Grafana

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3500 Full time
AI Engineer Especialista en Llms y Transformers
  • Devups
Python Git Virtualization Amazon Web Services
En Devups, somos una empresa especializada en servicios de staff augmentation que permite a las compañías incorporar rápidamente desarrolladores y especialistas tecnológicos sin la complejidad asociada al reclutamiento tradicional. Nuestro enfoque se basa en proporcionar talento altamente calificado de forma flexible y escalable para potenciar el crecimiento y éxito de nuestros clientes. Actualmente, estamos trabajando con clientes en el desarrollo e integración de soluciones basadas en inteligencia artificial avanzada, particularmente en el área de modelos de lenguaje grandes (LLMs) y arquitecturas Transformer. Estos proyectos buscan innovar en el procesamiento y generación de lenguaje natural, optimizar pipelines de recuperación aumentada de generación (RAG) y desplegar sistemas inteligentes que impacten directamente en productos y servicios de última generación.

Apply without intermediaries from Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines eficientes para modelos de lenguaje, especialmente para tareas de fine-tuning y adaptación usando frameworks como Hugging Face.
  • Implementar y optimizar técnicas de RAG (Retrieval-Augmented Generation) para mejorar la integración de datos externos y contexto en los modelos.
  • Gestionar bases de datos vectoriales y embeddings con herramientas como FAISS o Pinecone para facilitar búsquedas semánticas efectivas.
  • Desarrollar APIs robustas para exponer modelos y servicios mediante frameworks Python como FastAPI o Flask.
  • Configurar y desplegar aplicaciones en entornos cloud escalables, utilizando principalmente AWS o Google Cloud Platform.
  • Colaborar en la integración continua y control de versiones mediante Git y Docker para garantizar la reproducibilidad y portabilidad del software.
  • Participar en la evaluación de modelos, experimentando con entrenamientos distribuidos y herramientas avanzadas como DeepSpeed o BitsAndBytes para mejorar la eficiencia y precisión.
  • Trabajar en equipo coordinadamente, aportando feedback, documentando buenas prácticas y manteniendo altos estándares de calidad en el desarrollo.

Perfil y requisitos técnicos

Buscamos ingenieros en inteligencia artificial con experiencia demostrable en el trabajo con modelos de lenguaje grandes (LLMs) y arquitecturas Transformer, que tengan pasión por la innovación y la implementación de soluciones escalables y bajo producción. El candidato ideal deberá contar con:
  • Experiencia práctica utilizando librerías y frameworks de última generación como Hugging Face, realizando fine-tuning con técnicas avanzadas como LoRA, QLoRA o PEFT.
  • Dominio de conceptos y herramientas para Retrieval-Augmented Generation (RAG), junto con manejo de embeddings y bases de datos vectoriales (FAISS, Pinecone).
  • Competencia avanzada en Python y desarrollo de APIs con FastAPI o Flask.
  • Experiencia en contenedorización con Docker, control de versiones con Git y despliegue en AWS o Google Cloud Platform.
  • Conocimientos en evaluación y benchmarking de modelos de IA, así como en entrenamiento distribuido y optimización usando herramientas como DeepSpeed o BitsAndBytes, que se valorarán altamente.
  • Nivel de inglés intermedio-alto (B2 o superior) para comunicarse de manera efectiva en equipos técnicos internacionales.
  • Capacidad de trabajo autónomo y remoto, proactividad en resolución de problemas y actitud colaborativa para trabajar en equipos distribuidos.
Valoramos especialmente la experiencia en modelado y evaluación rigurosa, así como el interés en seguir aprendiendo y aplicando tecnologías emergentes en el campo de la inteligencia artificial.

Habilidades y conocimientos adicionales valorados


  • Experiencia previa en entrenamiento y ajuste fino de modelos a gran escala en entornos de producción.
  • Conocimientos de optimización de modelos para eficiencia de inferencia y consumo de recursos.
  • Manejo de infraestructura en la nube orientada a machine learning, incluidos pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.
  • Capacidades básicas en otras áreas de la IA, como visión computacional o aprendizaje reforzado.
  • Habilidades comunicativas y capacidad para documentar procesos técnicos de forma clara y precisa.

Qué ofrecemos

Formarás parte de Devups, un entorno de trabajo flexible que impulsa la innovación, el crecimiento profesional y el aprendizaje continuo. Como empresa de staff augmentation, ofrecemos modalidad 100% remota en toda Latinoamérica, facilitando un equilibrio óptimo entre vida laboral y personal.
Promovemos el desarrollo profesional mediante capacitaciones y certificaciones en tecnologías punteras, asegurando que nuestro talento se mantenga a la vanguardia.
Además, nuestro modelo flexible te permite integrarte rápidamente a proyectos desafiantes con gran impacto, participando en la construcción de soluciones avanzadas en inteligencia artificial.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Instructor
  • Duoc UC
  • Santiago (In-office)
DevOps Virtualization Amazon Web Services Docker
Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia y la máxima acreditación institucional. Nos enfocamos en formar técnicos y profesionales a través de 9 escuelas y más de 70 carreras vigentes, presentes en 18 sedes regionales. Nuestro equipo docente colabora en entornos multicisciplinarios y con enfoque en valores institucionales, buscando aportar al desarrollo económico de Chile mediante una educación de calidad y actualizada.

Applications: getonbrd.com.

Docente - Introducción a Herramientas Devops - Sede Alameda - Jornada Diurna - Duoc UC

Duoc UC Sede Alameda, Escuela de informática y Telecomunicaciones requiere contratar docentes para la asignatura de Introducción a Herramientas Devops con disponibilidad en jornada diurna que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requisitos del cargo

Es requisito contar con:
  • Formación: Ingeniero(a) en Informática, Ingeniero(a) Ejecución Informática o afín.
  • Experiencia: 3 años de experiencia en desarrollo de proyectos implementados en DevOps en forma avanzada.
  • Disponibilidad: Martes de 10:41hrs a 12:10hrs/ Miércoles de 10:01hrs a 12:50hrs/ Viernes de 11:31hrs a 12:50hrs.
  • Otros requisitos: Deseable contar con certificación en alguna nube. Las tecnologías mandatarias incluyen AWS, Azure, Docker.
Para postular es indispensable que pueda revisar previamente el siguiente video y documento, para lo que se recomienda:
1.- Video del Proyecto educativo: https://www.youtube.com/watch?v=FVfUAzP0OWY

Condiciones

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VIEW JOB APPLY VIA WEB
$$$ Full time
Docente Full-Stack Iii
  • Duoc UC
  • Santiago (In-office)
Virtualization Amazon Web Services Docker Microservices
Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia y la máxima acreditación institucional. En nuestra sede Plaza Norte, formamos a profesionales con una sólida trayectoria en informática y telecomunicaciones, integrando a docentes de alto calibre para entregar una educación de calidad. El proyecto docente para la asignatura Fullstack III se enmarca en el plan de estudios de la Escuela de Informática y Telecomunicaciones, con enfoque en desarrollo de soluciones Full Stack, microservicios y prácticas modernas de arquitectura y entrega de software. Buscamos potenciar el aprendizaje práctico de los estudiantes, promoviendo el trabajo en equipo, la creatividad y la responsabilidad académica, dentro de un marco de valores institucionales y desarrollo profesional continuo.

This job offer is available on Get on Board.

Funciones

El/la docente será responsable de liderar el proceso de enseñanza y aprendizaje de la asignatura Fullstack III, alineada al modelo educativo y al marco valórico institucional. Sus principales funciones incluirán: planificar y gestionar unidades didácticas y evaluaciones; impartir clases teóricas y prácticas en laboratorios; supervisar proyectos de desarrollo de software en equipo; asesorar y orientar a los estudiantes en la resolución de problemas técnicos y en la aplicación de buenas prácticas de desarrollo; promover la integración de tecnologías modernas (arquitecturas de microservicios, contenedores, cloud, Docker); colaborar con equipos multidisciplinarios para enriquecer la experiencia educativa; realizar seguimiento del rendimiento estudiantil y entregar retroalimentación oportuna; participar en actividades de desarrollo docente y actualización tecnológica; contribuir a la continuidad de la mejora curricular y al aseguramiento de la calidad educativa.

Requisitos

  • Formación: Ingeniero(a) en Informática, Ingeniero(a) Ejecución Informática o afín.
  • Experiencia: 3 años de experiencia. Sólida experiencia en el desarrollo de proyectos en rol FullStack. Arquitecturas de MicroServicios, Contenedores, Cloud, Docker.
  • Disponibilidad: Martes: 08:31 a 14:20/ Jueves: 08:31 a 14:20
  • Otros requisitos: Deseable que cuente con certificación en alguna nube como AWS

Deseables

Certificaciones en servicios de nube (AWS, Azure, Google Cloud) y experiencia en entornos de DevOps. Participación previa en proyectos educativos o de investigación aplicada. Habilidades de comunicación efectiva, empatía, y capacidad para adaptarse a metodologías de enseñanza innovadoras.

Beneficios

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VIEW JOB APPLY VIA WEB