We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

Gross salary $2500 - 3300 Full time
AI Engineer
  • Assetplan
JavaScript Python Git Node.js

Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú, gestionando más de 30.000 propiedades para clientes retail e institucionales y operando más de 80 edificios multifamily. Actualmente buscamos fortalecer nuestro equipo de desarrollo con un AI Engineer para integrar Grandes Modelos de Lenguaje (LLMs), construir agentes conversacionales multicanal y automatizar procesos utilizando herramientas de inteligencia artificial avanzada y servicios cloud, principalmente con AWS.

Assetplan se destaca por su innovación tecnológica y enfoque centrado en las personas dentro del mercado inmobiliario. La compañía se caracteriza por una cultura joven, horizontal y colaborativa, fomentando la proactividad y el aprendizaje continuo para impulsar su crecimiento y el de sus colaboradores.

This job offer is available on Get on Board.

Descriptor de cargo: AI Engineer

El rol se enfoca en la integración de LLMs, construcción de agentes conversacionales y automatización de flujos mediante tecnologías avanzadas. Las principales funciones son:

  • Desarrollar agentes conversacionales multicanal para plataformas como WhatsApp, Web y Slack, utilizando LangChain y OpenAI en Python y/o Node.js (TypeScript).
  • Crear scrapers inteligentes (ejemplo: para Facebook Marketplace) empleando Selenium y Python.
  • Diseñar y mantener herramientas internas que combinan procesamiento de datos, automatización y uso de LLMs para mejorar la eficiencia operativa.

Objetivo y Requisitos

Buscamos un profesional con experiencia consolidada en desarrollo de software, especialmente en áreas relacionadas con inteligencia artificial aplicada y automatización. El candidato ideal cuenta con:

  • Experiencia sólida en Python (idealmente más de 2 años).
  • Experiencia en desarrollo con Node.js usando TypeScript (al menos 1 año).
  • Buen manejo de servicios AWS como Lambda, S3, CloudWatch, DynamoDB y API Gateway.
  • Experiencia en creación de APIs REST y conexión mediante WebSockets.
  • Conocimiento en procesamiento de lenguaje natural (NLP) y manejo de modelos de lenguaje grandes (LLMs), particularmente mediante OpenAI.
  • Habilidad en técnicas de scraping con herramientas como Selenium, Playwright o BeautifulSoup.
  • Manejo de control de versiones con Git, incluyendo flujos colaborativos con Pull Requests y CI/CD.

Además, buscamos una persona con habilidades de autonomía, colaboración, orientación a resultados, innovación y comunicación efectiva, capaz de trabajar de manera independiente y en equipo, comprometida con la calidad y mejora continua, y que participe activamente en la capacitación del equipo en conceptos de IA.

Formación académica: Ingeniero en Computación, Ingeniería de Software o experiencia equivalente. Experiencia 2 a 4 años en desarrollo de software con preferencia en proyectos de inteligencia artificial aplicada.

Conocimientos y habilidades valorados

  • Conocimiento de LangChain, Retrieval-Augmented Generation (RAG) o arquitecturas de agentes conversacionales.
  • Experiencia con herramientas de infraestructura como Terraform para la gestión de recursos cloud.
  • Experiencia en sistemas de monitoreo y logging como Grafana o CloudWatch Logs.
  • Experiencia defendiendo y presentando soluciones técnicas en entrevistas.

Beneficios y ambiente laboral

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.

Entre nuestros beneficios contamos con:

  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours financiados por la compañía
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
Machine Learning Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL NoSQL Big Data

Haystack News is the leader in transitioning younger audiences to a next-generation TV news product. We empower users to watch the news they care about with a personalized headline news channel. Our personalization and big data technology enable a seamless lean-back experience reaching millions of users. In 2020, we streamed billions of minutes of news to users around the globe.

We're available on a variety of TV platforms (Roku, Fire TV, Android TV, Apple TV, Chromecast, Vizio) as well as mobile, tablet, and desktop.

Apply directly from Get on Board.

Job functions

We are looking for an outstanding machine learning engineer to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Machine Learning and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Haystack News covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
Beverages and snacks Haystack News offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply without intermediaries through Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB View Job
Gross salary $1800 - 3000 Full time
Ingeniero/a de NLP – Asistente Conversacional con IA
  • Lisit
Python Docker Azure Google Cloud Platform
Lisit es una empresa especializada en la creación, desarrollo e implementación de servicios de software innovadores, orientados a proveer herramientas de automatización y optimización para sus clientes. Con un fuerte enfoque en la innovación y la pasión por superar desafíos tecnológicos, Lisit acompaña a sus clientes mediante consultoría y la integración de variadas prácticas y herramientas tecnológicas, asegurando la ejecución exitosa de procesos de transformación digital a través de estrategias integrales.

Actualmente, el equipo de Lisit desarrolla un proyecto enfocado en la creación de un asistente conversacional basado en inteligencia artificial, empleando tecnologías avanzadas de procesamiento de lenguaje natural (NLP). Este proyecto busca potenciar la interacción entre usuarios y sistemas mediante la comprensión y generación de lenguaje natural, integrando modelos de última generación y soluciones tecnológicas robustas para mejorar la experiencia del usuario final.

This job is published by getonbrd.com.

Responsabilidades principales

En este rol como Ingeniero/a de NLP, serás responsable de diseñar e implementar modelos avanzados de procesamiento de lenguaje natural que permitan comprender y generar lenguaje natural con alta precisión. Deberás integrar modelos preentrenados como GPT o BERT, y trabajar con servicios de inteligencia artificial de plataformas como OpenAI o Hugging Face.
Además, desarrollarás flujos conversacionales inteligentes que manejan contexto e identifican intenciones de forma efectiva, integrando el asistente con APIs, diversas plataformas de mensajería (Slack, WhatsApp, Teams, entre otras) y bases de datos para asegurar una experiencia de usuario fluida y completa.
Serás responsable de la evaluación continua de los modelos mediante métricas estándares como precisión y F1, colaborando estrechamente con equipos de desarrollo, experiencia de usuario (UX) y áreas de negocio para asegurar que las soluciones implementadas estén alineadas con los objetivos estratégicos y necesidades del cliente.

Descripción del puesto y requisitos

Buscamos un/a profesional con experiencia sólida en Python y en el manejo de librerías especializadas en NLP, tales como spaCy, NLTK y Transformers. Además, es necesario contar con conocimientos prácticos en frameworks para asistentes conversacionales como Rasa o Dialogflow, así como experiencia en diseño y manejo del contexto en sistemas conversacionales.
El candidato ideal debe poseer conocimientos técnicos en la integración de APIs RESTful y en la implementación de asistentes a través de múltiples plataformas de mensajería populares, incluyendo Slack, WhatsApp y Microsoft Teams. Valoramos también la familiaridad con herramientas de contenedorización como Docker y prácticas de integración y despliegue continuo (CI/CD), así como experiencia con servicios en la nube tales como AWS, Azure o Google Cloud Platform.
Adicionalmente, se valoran las competencias en proyectos relacionados con grandes modelos de lenguaje (LLMs) como GPT o Claude, la capacidad para diseñar flujos conversacionales empáticos y funcionales, y el conocimiento en técnicas de prompt engineering para optimizar la interacción con modelos de IA generativa.

Conocimientos y habilidades deseables

Se considerará un plus la experiencia previa en proyectos que involucren grandes modelos de lenguaje (LLMs) como GPT o Claude, así como la habilidad para diseñar flujos de conversación que sean tanto funcionales como empáticos, mejorando la experiencia del usuario final.
El conocimiento en el área de prompt engineering para mejorar el rendimiento de modelos generativos, así como el dominio de herramientas para la automatización de despliegues en entornos de producción (Docker, CI/CD) y manejo de infraestructuras en la nube (AWS, Azure, GCP) también serán muy valorados.

Beneficios y entorno laboral

Ofrecemos la oportunidad de trabajar en proyectos desafiantes y de largo plazo dentro de un equipo técnico colaborativo y con un ambiente laboral excelente y amigable. Promovemos la estabilidad laboral, ofreciendo múltiples oportunidades de desarrollo profesional y crecimiento dentro de la compañía.
El trabajo es 100% remoto, idealmente dirigido a candidatos residentes en Chile, lo cual facilita la conciliación entre la vida personal y profesional sin perder el compromiso ni la comunicación estrecha con el equipo.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
Mlops Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Find this job on getonbrd.com.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
Docente Problemáticas Globales y Prototipado Plaza Oeste
  • Duoc UC
  • Santiago (In-office)
JavaScript Java Python Agile
En Duoc UC, una institución técnica profesional de educación superior autónoma y católica con más de 50 años de trayectoria y la máxima acreditación otorgada por la CNA, buscamos incorporar un docente para la Escuela de Informática y Telecomunicaciones en la Sede Plaza Oeste. El cargo forma parte de un equipo académico comprometido con la formación integral y actualizada de estudiantes en áreas emergentes de la informática y las telecomunicaciones. El programa académico incluye asignaturas clave orientadas a la innovación, prototipado y problemáticas globales en tecnología, alineado con el modelo educativo y valores institucionales. Trabajamos en un ambiente que fomenta el rigor académico, la innovación pedagógica y el compromiso social, aportando significativamente al desarrollo profesional de los futuros técnicos y especialistas que formamos.

Originally published on getonbrd.com.

Funciones y responsabilidades

Duoc UC Sede Plaza Oeste, Escuela de Informática y Telecomunicaciones requiere contratar docente para la asignatura de Problemáticas Globales y Prototipado con disponibilidad en jornada diurna que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requisitos y perfil del candidato

Es requisito contar con:
  • Formación: Ingeniero en Informática, Ingeniero en Computación, Ingeniero en Conectividad y Redes o afin.
  • Experiencia: 2 años de experiencia en procesos de Transformación Digital y PMO. Conocimientos teóricos/prácticos en el uso de dispositivos IoT. - Conocimientos sobre herramientas de gestión de proyectos basados en PMO, Agile y Lean. - Dominio en la administración de recursos y servicios Cloud (AWS). - Capacidad para integrar tecnologías mediante el uso de interfaces de programación basadas en Python, Node, Java (API).
  • Disponibilidad: Jornada Diurna / Lunes de 10:01hrs a 12:50hrs, Jueves de 10:01hrs a 12:10hrs, Viernes de 10:01hrs a 12:10hrs.
  • Otros requisitos: Habilitación instructor en Academia Cisco - IoT Fundamentals.

APPLY VIA WEB View Job
$$$ Full time
SAP Basis Consultant S/4HANA &Amp; Cloud
  • Moventi
Azure ITIL Cloud Architecture AWS
Moventi is a technology consultancy focused on helping organizations innovate and lead through technology adoption. We work with diverse multidisciplinary teams fostering continuous learning and collaboration. Our current focus includes supporting clients adopting SAP S/4HANA and cloud solutions, helping them to transform their IT landscapes for increased agility and efficiency.
The SAP BASIS team at Moventi is responsible for maintaining, upgrading, and optimizing SAP environments both on-premises and in the cloud. The projects involve working with SAP HANA Cloud (HEC) and SAP S/4HANA landscapes, managing system migrations, and ensuring seamless infrastructure operations for enterprise clients across multiple sectors.

Official source: getonbrd.com.

Role and Responsibilities

As a Senior SAP BASIS Consultant specializing in SAP S/4HANA and cloud technologies, you will be responsible for ensuring the availability, performance, and security of SAP systems for our global clients. Key duties include:
  • Performing SAP Basis activities such as system installation, configuration, upgrades, and patching, especially focusing on SAP S/4HANA and SAP HEC environments.
  • Managing infrastructure updates and applying release version upgrades to maintain system currency and compliance.
  • Handling SAP landscape management including integration of infrastructure components such as load balancers, networks, and system interfaces.
  • Executing end-to-end troubleshooting to analyze issues and design effective solutions to maintain system stability and performance.
  • Planning and executing complex migration projects—migrating SAP environments from on-premises to cloud, cloud-to-cloud, or cross-datacenter scenarios.
  • Collaborating closely with internal and client teams to align SAP BASIS activities with business needs and IT service management practices.

Required Skills and Experience

We are seeking a candidate with strong technical expertise and hands-on experience in SAP Basis administration, particularly in cloud and SAP S/4HANA environments. The ideal candidate should possess: (5-8 years of experience)
  • Extensive knowledge of IT Service Management frameworks and best practices as they apply to SAP operations.
  • Proven hands-on expertise with SAP Basis technical activities including system installations, upgrades, patch management, and landscape monitoring.
  • Experience working with SAP HEC (HANA Enterprise Cloud), SAP S/4HANA or comparable cloud SAP solutions.
  • In-depth understanding of infrastructure operations supporting SAP landscapes such as networks, interfaces, and load balancers (especially related to TLO – Tenant Landscape Operation).
  • Strong analytical and troubleshooting skills capable of diagnosing complex technical problems and developing comprehensive solutions.
  • Experience managing SAP migrations from on-premise systems to the cloud, as well as cloud-to-cloud or cross-datacenter migrations.
  • Excellent communication skills, self-motivation, and the ability to work collaboratively in a multidisciplinary environment.
Soft skills including adaptability, initiative, commitment to quality, and a proactive approach to learning new technologies and processes are highly valued.

Desirable Qualifications

Additional skills and experiences that would be advantageous include:
  • Cloud architecture and IT technical infrastructure know-how
  • Knowledge of/certification in one of Azure, AWS or GCP fundamentals
  • Experience with Migration, Upgrade projects esp. on S/4H Cloud
  • Knowledge of Project Management Fundamentals, ITIL, Lean Fundamentals is a plus
  • knowing any of the native languages on the top of it is an added advantage (Spanish/portugese)

What We Offer

  • Continuous professional growth opportunities through exposure to challenging and innovative projects.
  • Remote work flexibility enabling a healthy work-life balance.
  • Collaborative and supportive work culture focused on transparency, teamwork, and creativity.
Our central office offers a modern environment with recreational areas and agile workspaces for those who visit. Joining Moventi gives you the chance to work alongside multidisciplinary talents and innovate as part of a committed team.

Health coverage Moventi pays or copays health insurance for employees.
Computer provided Moventi provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Site Reliability Engineering Manager (SRE)
  • OpenLoop
  • Lima (Hybrid)
Python Linux Go DevOps

OpenLoop is looking for a Site Reliability Engineering Manager (SRE) to join our team in Lima, Peru. This role will be a member of the Engineering Team.

About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Our Company Culture

We have a relatively flat organizational structure here at OpenLoop. Everyone is encouraged to bring ideas to the table and make things happen. This fits in well with our core values of Autonomy, Competence and Belonging, as we want everyone to feel empowered and supported to do their best work.

Find this vacancy on Get on Board.

About the Role

Team Leadership & Management

  • Build, lead, mentor, and grow a team of Site Reliability Engineers
  • Conduct regular 1:1s, performance reviews, and career development planning
  • Foster a culture of learning, collaboration, continuous improvement, sense of urgency and over communication.
  • Recruit, interview, and onboard new SRE team members
  • Collaborate with engineering leadership on team planning and resource allocation

Technical Strategy & Operations

  • Address and evaluate current company situation regarding applications, systems and platforms to build an SRE roadmap as well as the team headcount
  • Define and implement SRE strategy aligned with business objectives
  • Establish and maintain SLIs, SLOs, and error budgets across all services
  • Drive incident response processes and post-mortem culture
  • Lead capacity planning and infrastructure scaling initiatives
  • Oversee monitoring, alerting, and observability implementations
  • Champion automation and infrastructure-as-code practices

Cross-Functional Collaboration

  • Partner with engineering teams to improve system reliability and deployment practices
  • Work with security teams to implement secure, compliant infrastructure
  • Collaborate with the product team to balance feature velocity with reliability
  • Engage with executive leadership on infrastructure strategy and planning
  • Coordinate with vendors and external partners on critical infrastructure components

Operational Excellence

  • Ensure 24/7 system availability and rapid incident response
  • Implement and maintain disaster recovery and business continuity plans
  • Drive cost optimization initiatives while maintaining reliability standards
  • Establish and track key reliability metrics and KPIs
  • Lead efforts to reduce toil and increase automation

Requirements

Experience

  • 8+ years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • 3+ years of people management experience, preferably in technical roles
  • Proven track record of managing large-scale, distributed systems
  • Experience with incident management and post-mortem processes
  • Strong background in AWS and container orchestration

Technical Skills

  • Strong proficiency in at least one programming language (Typescript, Python, Go, etc.)
  • Deep understanding of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK)
  • Proficiency with monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, Jenkins, etc)
  • Understanding of database systems and performance optimization

Leadership & Communication

  • Advanced english (C1) fluency
  • Excellent verbal and written communication skills
  • Experience leading technical discussions and presenting to stakeholders
  • Ability to translate technical concepts to non-technical audiences
  • Strong problem-solving and decision-making capabilities
  • Experience with agile methodologies and project management

Desirable Skills

Additional Experience

  • Experience in high-growth startup environments
  • Background in regulated industries (healthcare, finance, etc.)
  • Experience with event-driven architecture, microservices and service mesh
  • Knowledge of security best practices and compliance frameworks
  • AWS Certified Solutions Architect or similar cloud certifications

Technical Depth

  • Experience with chaos engineering and fault injection
  • Knowledge of performance testing and load testing frameworks
  • Understanding of distributed tracing and application performance monitoring
  • Experience with configuration management tools (Ansible, Chef, Puppet)

Our Benefits

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Wellness program OpenLoop offers or subsidies mental and/or physical health activities.
Life insurance OpenLoop pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage OpenLoop pays or copays health insurance for employees.
Dental insurance OpenLoop pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
Beverages and snacks OpenLoop offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
Senior AWS Cloud Engineer
  • Merapar
Python Agile Virtualization Amazon Web Services

Merapar is a European Software/Technology consultancy company that specializes in cloud (AWS and GCP) , video platforms and utilities that now also has an office in Chile serves the Americas market. We work in small agile teams and help global video power houses such as BBC, NBC Universal, Liberty Global, Discovery to get innovations to the market. The senior cloud engineer will work with a team based in the UK that works on video platforms and monitoring solutions for utility companies

Applications: getonbrd.com.

Job functions

  • Design and implement using IaC AWS based infrastructure solutions.
  • Create and maintain CI/CD pipelines.
  • Support existing cloud infrastructure.
  • Work inside Agile teams working collaboratively with other developer

Qualifications and requirements

  • Good level in English. The interviews will be in English
  • Over 8 years' experience with at least 3 years of AWS and Infrastructure as Code experience.
  • Extensive programming knowledge in Python or having experience in other languages and willing to learn Python
  • Extensive experience in cloud technologies with recent hands-on AWS knowledge.
  • Proven record of high-quality delivery and related documentation.
  • Able to take feature and functional requirements and convert them into technical solutions.
  • Resident in Chile and living in Santiago

Desirable skills

  • Extensive experience with Terraform

Conditions

  • Very experienced colleagues you can work with and learn from
  • 40 hour work week
  • 20 vacation days (and yes you can take them in the first year as well)
  • more unpaid vacation days if your manager approves
  • Macbook Pro to do your work on
  • Work from home.
  • We meet once per week to work and have lunch together
  • Paid sick days
  • A company that is willing to invest in your development

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Merapar provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Merapar gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
Gross salary $2200 - 3000 Full time
Jefe Infraestructura IT/Ot Onpremise & Cloud
  • Agrosuper
  • Rancagua (Hybrid)
Virtualization Power BI Soporte técnico Planning
En Agrosuper, una empresa líder en la industria alimentaria con más de 13.000 colaboradores, nos destacamos por entregar productos de la más alta calidad a Chile y al mundo. Nuestro equipo está orientado a innovar y crecer, promoviendo ambientes de trabajo colaborativos y de desarrollo profesional.
La Subgerencia de Continuidad Operacional On Premise tiene un rol central dentro de la compañía, ya que asegura que las plataformas tecnológicas estén operativas, confiables y actualizadas. El equipo responsable mantiene tanto infraestructura local (on premise) como servicios en la nube, lo que es clave para garantizar la continuidad y optimización de las operaciones de Agrosuper.
Buscamos un líder que pueda dirigir eficientemente estos equipos técnicos, asegurar la alineación con los mejores estándares tecnológicos y gestionar proyectos de infraestructura críticos que soporten el crecimiento y transformación digital de la empresa.

This job is exclusive to getonbrd.com.

Principales funciones:

  • Liderar y coordinar el equipo de soporte de infraestructura tecnológica para asegurar la alta disponibilidad y continuidad operacional de los sistemas locales y en la nube.
  • Administrar y validar diseños de infraestructura, procedimientos, mejores prácticas y estándares, creando modelos de soporte robustos para la infraestructura Cloud y On Premise.
  • Apoyar a todas las áreas de la compañía para mantener la operatividad y disponibilidad del equipamiento tecnológico.
  • Analizar, automatizar y optimizar procesos para la gestión eficaz de recursos tecnológicos.
  • Gestionar la resolución y remediación de incidentes relacionados con infraestructura tecnológica.
  • Operar y mantener la infraestructura virtualizada bajo VMware y servicios Cloud, supervisando sistemas IAAS bajo su responsabilidad.
  • Controlar el mantenimiento, actualización y evitar la obsolescencia de las plataformas tecnológicas.
  • Gestionar la implementación de proyectos tecnológicos relacionados con infraestructura, asegurando cumplimiento de plazos y calidad.
  • Asesorar en arquitecturas de infraestructura a los equipos de desarrollo de proyectos tecnológicos.
  • Servir como contraparte y apoyo para los equipos de soporte de la Subgerencia, promoviendo colaboración y mejora continua.
  • Elaborar informes y dashboards ejecutivos que proporcionen visibilidad clara al estado y desempeño de la infraestructura.

Requisitos del cargo:

  • Título profesional en Ingeniería Informática, Ingeniería con mención en Informática, o carreras afines.
  • Sólidos conocimientos y experiencia en soporte, operación y mantenimiento de infraestructuras tecnológicas tanto en entornos Cloud como On Premise.
  • Experiencia demostrable en prácticas y herramientas de FinOps para la optimización de costos en la nube.
  • Capacidad comprobada para liderar y gestionar proyectos tecnológicos, incluyendo planificación, ejecución y control.
  • Conocimiento avanzado en almacenamiento (Storage) y manejo de infraestructuras virtualizadas especialmente bajo VMware y plataformas Cloud.
  • Experiencia en sistemas de monitoreo para servicios e infraestructura, asegurando detección y resolución de incidencias.
  • Comprensión y aplicación de arquitecturas de infraestructura tecnológica para la mejora continua y el alineamiento con objetivos de negocio.
  • Habilidades de liderazgo, comunicación efectiva, trabajo en equipo y orientación a resultados.
  • Capacidad analítica, proactividad para la automatización y optimización de procesos, y una actitud de servicio orientada a apoyar a distintos equipos corporativos.

Deseable conocimiento y experiencia:

  • Conocimientos avanzados en seguridad informática aplicados a infraestructuras Cloud y On Premise.
  • Experiencia en metodologías ágiles y herramientas de gestión de proyectos (como Scrum, Kanban, Jira).
  • Conocimientos en tecnologías emergentes relacionadas con Internet de las Cosas (IoT) y operaciones de tecnología operacional (OT).
  • Capacidad para desarrollar dashboards con herramientas de visualización de datos como Power BI, Tableau u otros.
  • Certificaciones relevantes en VMware, Cloud (AWS, Azure, Google Cloud) y gestión de proyectos.

Beneficios:

En Agrosuper ofrecemos un entorno laboral enfocado en el crecimiento profesional y desarrollo continuo, con planes estructurados de capacitación y becas de estudio que potencian tus habilidades y acompañan tu carrera a largo plazo.
Disponemos de convenios con diversas instituciones que respaldan tu bienestar y formación continua.
Nuestro sistema de bonos asociados al desempeño reconoce y recompensa el compromiso y los resultados tanto a nivel individual como de equipo.
Valoramos la inclusión y la diversidad, fomentando la integración de personas con discapacidad como parte fundamental de nuestra cultura organizacional.
Formarás parte de una empresa sólida, que promueve un ambiente de trabajo colaborativo, crecimiento constante y una verdadera calidad de vida laboral.

Beverages and snacks Agrosuper offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
Cloud & Platform Engineering Lead
  • Dynamic Devs
  • Santiago (Hybrid)
DevOps Virtualization Amazon Web Services Continuous Deployment

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

Apply exclusively at getonbrd.com.

Funciones del cargo

📢 En Dynamic Devs, estamos en la búsqueda de un Cloud & Platform Engineering Lead 📢

Buscamos a quien lidere la evolución de nuestra práctica de Cloud, DevOps y Platform Engineering, actuando como referente senior, combinando experiencia práctica en AWS, arquitectura de soluciones y una mirada consultiva para acompañar los desafíos cloud y de plataforma más estratégicos de nuestros clientes

1. Liderar y diseñar arquitecturas cloud modernas, escalables y seguras, principalmente sobre AWS, acompañando la adopción de arquitecturas cloud native, la modernización tecnológica y el desarrollo de plataformas estratégicas en nuestros clientes.

2. Actuar como referente técnico y trusted advisor para los clientes: guiar en la exploración y toma de decisiones técnicas, facilitar workshops, y evangelizar sobre buenas prácticas de cloud y platform engineering, construyendo relaciones de confianza y colaboración a largo plazo.

3. Impulsar y liderar comunidades de práctica y grupos de estudio internos en Cloud, DevOps y Platform Engineering, fomentando la adopción de mejores prácticas y el desarrollo profesional del equipo.

4. Colaborar en la definición de roadmaps de modernización, migraciones multicloud y adopción de arquitecturas cloud-native y platform engineering.

5. Ejecución hands-on en proyectos clave: desde la definición técnica, configuración, despliegue y automatización (IaC/Terraform) hasta revisiones arquitectónicas, performance y seguridad.

6. Documentar soluciones y decisiones técnicas, asegurando trazabilidad y transferencia de conocimiento.

7. Mantenerse actualizado/a sobre tendencias, frameworks y tecnologías en Cloud, DevOps, Platform Engineering y modernización de plataformas.

8. Participar como referente en eventos, charlas y actividades de generación de demanda junto a partners y clientes.

Requerimientos del cargo

  • 5+ años de experiencia en roles técnicos (arquitectura, ingeniería o consultoría cloud), con experiencia hands-on en AWS (EC2, S3, RDS, EKS, IAM, Lambda, VPC, etc.).
  • Experiencia liderando proyectos de migración, modernización y adopción de arquitecturas cloud-native (microservicios, serverless, contenedores, APIs, etc.).
  • Conocimientos sólidos en DevOps, Infraestructura como Código (Terraform, CloudFormation), CI/CD, monitoreo y seguridad cloud.
  • Experiencia en diseño y ejecución de soluciones multicloud (AWS deseable, se valora conocimiento en GCP/Azure).
  • Experiencia o interés en Platform Engineering: plataformas internas para developers, portales self-service, automatización de onboarding/despliegue, developer experience, herramientas de plataforma.
  • Capacidad para comunicarse con equipos técnicos y no técnicos, y para liderar transversalmente iniciativas y comunidades técnicas.
  • Experiencia en procesos de preventa, diseño de propuestas y acompañamiento consultivo a clientes.
  • Nivel de inglés técnico (avanzado deseable, pero no excluyente).
  • Certificación AWS Solutions Architect Associate/Professional o disposición a obtenerla rápidamente
  • Modalidad flexible: Trabajo mayormente remoto, con disponibilidad para asistir a reuniones presenciales puntuales en Santiago y, eventualmente, realizar viajes al extranjero (principalmente a Perú) según las necesidades del proyecto.

Opcionales

· Experiencia en Platform Engineering (por ejemplo, desarrollo de Internal Developer Platforms, Backstage, automatización de pipelines, creación de herramientas internas para equipos de desarrollo).

· Experiencia en FinOps, Well-Architected Framework, frameworks de gobierno cloud.

· Certificaciones adicionales en AWS, GCP o Azure.

· Participación activa en comunidades técnicas, eventos o iniciativas de evangelización.

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

APPLY VIA WEB View Job
$$$ Full time
Arquitecto de Networking Cloud AWS
  • Zerviz Technologies
  • Santiago (Hybrid)
Virtualization Amazon Web Services Azure Cloud Computing

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Find this vacancy on Get on Board.

Funciones del cargo

Diagnóstico de red actual; topología, protocolos, puntos críticos y dependencias.  Configuración y levantamiento de red complejas usando Amazon VPC, Subnets, Route Tables, NAT Gateways, Transit Gateways, Landing Zone, etc.  Levantar y documentar para internalizar conocimiento y toma de control de la configuración de la infraestructura de networking existente  Conocimiento de arquitecturas híbridas (on-premise + cloud AWS)  Apoyar al equipo de Telecomunicaciones en el proceso de adopción de tecnologías AWS para configuración de networking.

Requerimientos del cargo

EXCLUYENTES:

  • AWS Certified Solutions Architect Associate (SAA-C03)
  • AWS Certified Advanced Networking – Specialty (ANS-C01)
  • Azure Fundamentals (AZ-900)  3 años de experiencia
  • Experiencia práctica en servicios, configuración e implementación componentes de networking sobre AWS
  • Experiencia práctica en servicios, configuración e implementación componentes de networking sobre Azure

Opcionales

DESEABLES:

  • Azure Administrator Associate (AZ-104)
  • Experiencia y configuración en la nube.
  • Experiencia en proyectos de adopción tecnológica
  • Experiencia documentando infraestructuras complejas
  • Experiencia en recopilación y transferencia de conocimientos técnicos.

Condiciones

Ofrecemos un ambiente laboral colaborativo y enriquecedor, ideal para tu desarrollo profesional continuo. Puedes disfrutar de flexibilidad laboral y la oportunidad de trabajar en proyectos internacionales, lo que te brindará una vasta experiencia en el ámbito digital.
En ZerviZ, fomentamos un ambiente Diverso e inclusivo donde la creatividad y la innovación son fundamentales.
Apoyamos tu crecimiento profesional y confiamos en tu capacidad para marcar la diferencia en nuestros proyectos.

¡Si te apasiona la tecnología y deseas mejorar la experiencia del cliente, únete a nosotros!

Wellness program Zerviz Technologies offers or subsidies mental and/or physical health activities.
Relocation offered If you are moving in from another country, Zerviz Technologies helps you with your relocation.
Partially remote You can work from your home some days a week.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Mobile phone provided Zerviz Technologies provides a mobile phone for work use.
Computer provided Zerviz Technologies provides a computer for your work.
APPLY VIA WEB View Job
$$$ Full time
Ingeniero en Redes y Networking AWS/azure
  • Zerviz Technologies
  • Santiago (Hybrid)
Virtualization Amazon Web Services Azure Cloud Computing
En Zerviz Technologies innovamos, implementamos y transformamos proyectos y procesos de transformación digital utilizando la mejor tecnología. Fundados en 2017, nos especializamos en construir tecnología y experiencia de cliente, optimizando operatividad, atención, servicio y gestión a través de soluciones a medida. Nuestra presencia en las principales industrias y países de América Latina nos posiciona como especialistas capaces de abordar desafíos tecnológicos y de experiencia de cliente, con más de 150 proyectos realizados en 16 países.

Opportunity published on Get on Board.

Funciones del cargo

  • Diagnóstico de la red actual: topología, protocolos, puntos críticos y dependencias.
  • Configuración y despliegue de redes complejas utilizando Amazon VPC, Subnets, Route Tables, NAT Gateways, Transit Gateways, Landing Zone, entre otros.
  • Levantamiento y documentación para internalizar conocimiento y control de la infraestructura de networking existente.
  • Conocimiento de arquitecturas híbridas (on-premise + cloud AWS).
  • Apoyar al equipo de Telecomunicaciones en el proceso de adopción de tecnologías AWS para configuración de networking.

Requerimientos del cargo

Excluyentes:
  • AWS Certified Solutions Architect Associate (SAA-C03).
  • AWS Certified Advanced Networking – Specialty (ANS-C01).
  • Azure Fundamentals (AZ-900).
  • Mínimo 3 años de experiencia.
  • Experiencia práctica en servicios, configuración e implementación de componentes de networking sobre AWS.
  • Experiencia práctica en servicios, configuración e implementación de componentes de networking sobre Azure.
Opcionales Deseables:
  • Azure Administrator Associate (AZ-104).
  • Experiencia y configuración en la nube.
  • Experiencia en proyectos de adopción tecnológica.
  • Habilidad para documentar infraestructuras complejas.
  • Experiencia en recopilación y transferencia de conocimientos técnicos.
Buscamos un profesional con sólidos conocimientos en networking y cloud, capaz de afrontar retos en entornos híbridos, que cuente con habilidades analíticas para diagnosticar y optimizar redes, y que colabore de manera efectiva con equipos multidisciplinarios, aportando innovación y mejora continua.

Deseable

  • Certificación Azure Administrator Associate (AZ-104).
  • Experiencia en proyectos de adopción tecnológica y transformación digital.
  • Capacidad para documentar infraestructuras técnicas complejas y facilitar la transferencia de conocimientos.
  • Conocimientos en integración de arquitecturas híbridas y seguridad en redes.

Beneficios

Ofrecemos un ambiente laboral colaborativo y enriquecedor, ideal para tu desarrollo profesional continuo. Puedes disfrutar de flexibilidad laboral y la oportunidad de trabajar en proyectos internacionales, lo que te brindará una vasta experiencia en el ámbito digital.
En ZerviZ, fomentamos un ambiente diverso e inclusivo donde la creatividad y la innovación son fundamentales.
Apoyamos tu crecimiento profesional y confiamos en tu capacidad para marcar la diferencia en nuestros proyectos.
¡Si te apasiona la tecnología y deseas mejorar la experiencia del cliente, únete a nosotros!

APPLY VIA WEB View Job
Gross salary $2000 - 2500 Full time
Senior Infrastructure Engineer (AWS)
  • Niuro
Python Linux DevOps Virtualization
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
We empower projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. With a strong focus on professional growth, Niuro offers continuous training in technical and soft skills as well as leadership development to ensure success in innovative and challenging projects. We also manage all administrative tasks including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Joining Niuro means working within a collaborative environment where talent can grow and reach its full potential, participating in impactful and technically rigorous industrial data projects that drive innovation and professional growth.

Applications: getonbrd.com.

Technical Snapshot & Key Responsibilities

  • Architect and maintain multi-account infrastructure in AWS using Terraform, including reusable modules, remote state management, drift detection, and enforcement of security and cost policies.
  • Operate Kubernetes/EKS clusters and large-scale EC2 fleets with features such as autoscaling, right-sizing, and blue/green deployments (surge and rollback).
  • Automate golden AMI pipeline creation using tools like Packer and AWS Systems Manager (SSM).
  • Manage critical Windows Server workloads and IIS in production: hardening, patching, centralized log management, and scaling IIS behind ALB/NLB.
  • Implement end-to-end observability solutions, unifying logs, metrics, and traces across CloudWatch, OpenSearch/ELK, Datadog, FluentBit, and Winlogbeat, creating dashboards and alerts that reduce 5xx errors and accelerate root cause analysis.
  • Conduct infrastructure sweeps and tuning to improve reliability, fix misconfigurations, optimize RDS (failover, replicas, connection management) and FSx, and enforce checks through CI/CD pipelines.
  • Design and execute performance readiness testing including load and stress tests with tools like k6, Locust, JMeter, and Python scripts to validate scaling and eliminate bottlenecks before peak traffic periods.

Requirements

  • 5+ years experience in DevOps, Infrastructure Engineering, or Site Reliability Engineering (SRE) roles.
  • Advanced expertise in AWS services including RDS, FSx, CloudWatch, EC2, and ELB.
  • Hands-on experience with Terraform and Kubernetes, strongly preferred expertise with EKS.
  • Practical production experience managing Windows Server and IIS workloads on AWS including patching, scaling, and integrating IIS logs.
  • Expertise in EC2 scaling strategies and golden AMI image workflows.
  • Proven skills deploying and managing observability stacks that provide actionable alerts and diagnostics.
  • Strong background in performance and load testing methodologies.
  • Proficient scripting skills in Python and Bash; PowerShell experience is a plus.
  • Excellent communication skills, systems thinking ability, and meticulous attention to detail.

Nice-to-Have Skills

  • Experience with policy-as-code tools such as Open Policy Agent (OPA) or Sentinel.
  • Knowledge of service mesh or serverless architecture patterns.
  • Expertise in security automation frameworks including CIS benchmarks and AWS Inspector.
  • Familiarity with cost-optimization tooling in cloud environments.
  • Leadership experience managing high-traffic incidents and operational response.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $3000 - 3300 Full time
Ingeniero/a DevOps
  • Magnet
Python Linux Go DevOps

Magnet es una empresa de ingeniería enfocada en usar software para entregar soluciones de alta calidad a los problemas de nuestros clientes. Nos gusta entender sus procesos y su negocio para así entregarles el máximo valor posible.

Hace 13 años comenzamos desarrollando pequeñas plataformas de software, pero hoy trabajamos en grandes proyectos, como gestionar las limitaciones operacionales de una aerolínea completa o digitalizar el proceso de migraciones de un país.

Si bien somos bastante exigentes en términos técnicos, ya que tenemos un gran enfoque en la ingeniería, también nos dedicamos a pasarlo bien cada vez que podemos. En ese sentido, nos esforzamos muchísimo en tener una cultura abierta, que le permita a todas/os crecer profesionalmente y sentirse bien en su trabajo, no solo porque entendemos que entregar productos de calidad está directamente relacionado a un equipo feliz, si no que porque ese es el tipo de empresa que decidimos formar.

Apply at the original job on getonbrd.com.

Propósito del cargo

¡Únete a nuestro equipo como Ingeniero/a DevOps y lidera la transformación cloud!

Estamos buscando a alguien con experiencia para reforzar nuestro equipo, necesitamos dos personas que realicen migraciones de entornos on-premise a la nube, garantizando una transición fluida y eficiente.

Responsabilidades y habilidades

  • Planificar y ejecutar migraciones estratégicas de infraestructura y aplicaciones desde entornos on-premise a plataformas cloud.
  • Diseñar e implementar soluciones robustas de orquestación y automatización utilizando Kubernetes y OpenShift Cloud.
  • Administrar y optimizar entornos virtualizados con VMware, preparándolos para la transición a la nube.
  • Implementar y mantener prácticas de Integración Continua (CI) y Entrega Continua (CD) para agilizar los despliegues.
  • Garantizar la seguridad y el cumplimiento normativo de la infraestructura y los datos migrados en la nube, aplicando las mejores prácticas y estándares.
  • Identificar y resolver problemas técnicos complejos relacionados con la infraestructura, las migraciones y la operación en la nube.
  • Colaborar activamente con equipos de desarrollo, operaciones y seguridad para fomentar una cultura DevOps.

Requisitos mínimos

  • Experiencia mínima de 2 años o más como Ingeniero/a DevOps.
  • Experiencia trabajando con OpenShift Cloud.
  • Conocimiento avanzado y experiencia práctica con Kubernetes.
  • Experiencia en administración y operación de entornos VMware.
  • Conocimiento y experiencia práctica en plataformas cloud (AWS, Azure, GCP).
  • Experiencia con herramientas de Infraestructura como Código (IaC) como Terraform o Ansible.
  • Habilidades de scripting avanzadas (Python, Bash, Go) para automatización y resolución de problemas.

Requisitos deseables

  • Certificaciones en plataformas cloud (AWS, Azure, GCP).
  • Experiencia con metodologías ágiles (Scrum, Kanban).
  • Conocimiento de principios de DevSecOps.

Beneficios

Nos esforzamos en crear un ambiente de trabajo y una cultura que potencie a nuestro equipo. Tenemos una organización horizontal en la que hay espacio para el aporte de todos al tomar decisiones. Fomentamos una cultura abierta para tener feedback constante por parte del equipo y así mejorar cuando nos equivocamos.

Celebramos los cumpleaños y planificamos actividades de encuentro de equipo durante el año. También el equipo ha creado varios "clubes secretos" que organizan actividades por su cuenta (after office, salidas al cine, etc).

Además:

  • Seguro complementario de salud, dental y catastrófico.
  • Descuentos en farmacias y convenios con instituciones.
  • Espacios de capacitación, con acceso a cursos y material.
  • Inducciones para asumir tus responsabilidades.
  • Soporte práctico y teórico, al cual podrás acudir en cualquier momento.
  • Actividades anuales, como el aniversario y el paseíto de fin de año.

Internal talks Magnet offers space for internal talks or presentations during working hours.
Life insurance Magnet pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Magnet pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Magnet covers some computer repair expenses.
Dental insurance Magnet pays or copays dental insurance for employees.
Computer provided Magnet provides a computer for your work.
Personal coaching Magnet offers counseling or personal coaching to employees.
Shopping discounts Magnet provides some discounts or deals in certain stores.
APPLY VIA WEB View Job
$$$ Full time
Instructor Java DevOps
  • Skillnest
JavaScript Java Python SQL

Skillnest es una academia de programación con una presencia global, originada en Silicon Valley y con más de 15 años de experiencia.
Llevamos cuatro años ofreciendo nuestros programas en Latinoamérica y nos destacamos por un enfoque flexible, orientado a resultados y centrado en la toma de decisiones basadas en datos.
Como equipo joven, estamos comprometidos con transformar vidas a través de la educación en programación y apoyamos activamente la empleabilidad de nuestros graduados.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Como instructor del programa Java DevOps, serás responsable de impartir clases en modalidad remota y sincrónica, utilizando plataformas como Zoom y Discord para facilitar la interacción directa con los estudiantes.

Tu labor se centrará en impartir el plan de estudios diseñado a través de la plataforma de estudio de Skillnest, el cual está diseñado para garantizar una experiencia de aprendizaje integral. Deberás guiar a los estudiantes a través de cada módulo, fomentando el uso de buenas prácticas de programación, y asegurando que puedan avanzar también de forma asíncrona, con acceso permanente a materiales de estudio y seguimiento de su progreso calendarización de contenidos establecida.

Durante el desarrollo del programa, serás responsable de guiar el aprendizaje y aplicación de las siguientes tecnologías y conceptos clave:

  • Bases de Datos Relacionales y No Relacionales (SQL & NoSQL)
  • Spring Boot (Fundamentos, estructura y configuración)
  • Pruebas Unitarias (JUnit, Mockito)
  • Arquitectura Hexagonal
  • WebFlux (Microservicios reactivos con Spring)
  • Docker (Contenerización de aplicaciones)
  • Spring Cloud (Comunicación entre microservicios)
  • Buenas prácticas en Spring Boot (Documentación, manejo de excepciones, estructuración de código)
  • Spring Security (Autenticación y autorización)
  • Servicios en la Nube con AWS:
    • Teórico: fundamentos para la toma de decisiones técnicas
    • Práctico: despliegue de aplicaciones basadas en microservicios
  • Principios y herramientas de DevOps

Requerimientos del cargo

1. Experiencia Técnica

  • Experiencia comprobada en arquitectura de software en la nube, con capacidad para aplicar enfoques profesionales en el desarrollo de soluciones distribuidas.
  • Sólida trayectoria en desarrollo de software y programación, con enfoque en buenas prácticas y metodologías modernas.
  • Manejo fluido de herramientas y conceptos asociados al ecosistema DevOps y despliegue en entornos productivos.

2. Habilidades Docentes

  • Experiencia mínima de 1 año enseñando al menos 3 de las siguientes 7 áreas de conocimiento:
    • Programación orientada a objetos
    • Lenguajes de scripting (Python, Java, JavaScript, entre otros)
    • Bases de datos (relacionales y no relacionales)
    • Ciberseguridad
    • Conectividad y redes (AWS, Google Cloud, Microsoft Azure)
    • DevOps
    • Ciencia de datos y aprendizaje automático

3. Habilidades Complementarias

  • Nivel de inglés intermedio o avanzado, tanto escrito como leído.
  • Disponibilidad para participar en una capacitación previa al inicio del curso, con el fin de familiarizarse con el plan curricular, herramientas institucionales y dinámicas pedagógicas.
  • Dedicación de 10 horas de instrucción semanales, distribuidas entre sesiones sincrónicas de clases y taller práctico, solución de dudas a través de Discord.
  • Dedicación para trabajo administrativo de 4 horas semanales para preparación de clases, revisión de actividades prácticas, desafíos técnicos y seguimiento a estudiantes.

Condiciones

  • Acceso al contenido de los programas de Skillnest para capacitación personal.
  • Capacitación sobre la metodología de enseñanza de Skillnest antes de iniciar el bootcamp.
  • Trabaja remoto desde cualquier lugar del mundo.
  • Capacidad de crecimiento en el área de educación en desarrollo de software y programación. No queremos que impartas sólo un programa de estudio. Dependiendo de tu experiencia podrías impartir más bootcamps.

Si eres un apasionado de la programación, la enseñanza y buscas un entorno de trabajo desafiante. Únete a Skillnest y sé parte de la revolución educativa en programación

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $1500 - 2000 Full time
Senior Load Tester – AWS & Integrations
  • Niuro
JavaScript Python REST API Linux
Niuro connects projects with elite tech teams to collaborate with leading U.S. companies. This role involves working on AWS-hosted systems, Aestiva-based applications, and third-party integrations, focusing on load and performance testing. The project emphasizes creating realistic load scenarios, identifying bottlenecks, and optimizing scalability and performance. The work supports continuous integration and deployment pipelines to enhance system reliability and efficiency and is tailored for diverse distributed environments.

Apply only from getonbrd.com.

About the Role:

We’re looking for a Senior Load Tester to design and execute load testing strategies for systems hosted on AWS, applications built with Aestiva framework, and various third-party integrations. Your main goal will be to simulate real-world usage through custom scripting, identify system performance bottlenecks, and ensure that applications scale reliably under stress.
Your responsibilities will include automating test executions, monitoring key system metrics such as CPU, memory, I/O, latency, and throughput, and working closely with engineering and DevOps teams. You'll integrate testing results and detailed reports into CI/CD pipelines, helping to drive continuous performance improvements and operational excellence.

Requirements:

  • Minimum 5 years of experience in performance and load testing within distributed systems environments.
  • Strong scripting skills using tools such as JMeter, Gatling, k6, along with languages like Python, Bash, or JavaScript.
  • Hands-on experience with AWS services including EC2, RDS, Load Balancers, and CloudWatch.
  • Familiarity with REST APIs, JSON, and asynchronous workflows.
  • Experience working with CI/CD tools like TeamCity, Jenkins, or GitLab CI, and monitoring platforms such as Grafana and New Relic.
  • Proven ability to analyze logs, traces, and performance metrics for diagnosis and troubleshooting.
  • Conversational English proficiency to effectively collaborate with US-based teams.

Nice to Have:

  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Experience performing security and failover testing to ensure robustness.
  • Background in regulated industries including fintech or government technology sectors.

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $4500 - 6500 Full time
Platform Engineer
  • DynWrk
Python Linux Go DevOps
DynWrk builds and operates dedicated software engineering teams in Chile for U.S. companies, attracting top talent in the Americas. We specialize in building, managing, and training tech teams for global impact.
Vivint is a leading technology company redefining the home experience, leveraging cutting-edge technology and innovative services to enable safer, smarter, and more sustainable homes for millions of users.

Exclusive offer from getonbrd.com.

Job functions

At Vivint, you will join a forward-thinking team dedicated to shaping the future of smart homes for millions of users. We seek a skilled Platform Engineer to build, maintain, and scale foundational systems for our software development lifecycle. This role focuses on creating reliable, scalable, and efficient infrastructure and tooling, enabling rapid and safe software delivery. Key responsibilities include:

  • Design, build, and maintain internal platforms, CI/CD pipelines, infrastructure-as-code (IaC), and automation tools.
  • Collaborate with DevOps, SREs, developers, and QA to enhance developer experience and streamline deployments.
  • Manage cloud infrastructure (e.g., AWS, GCP, Azure) and container orchestration systems (e.g., Kubernetes, ECS).
  • Monitor and improve system performance, reliability, and scalability.
  • Implement best practices in security, compliance, observability, and disaster recovery.
  • Write technical documentation and guide on platform tool usage.
  • Support incident response and root cause analysis for platform-related issues.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Engineering, or a related technical field.
  • 5+ years of experience in platform engineering, DevOps, or infrastructure engineering.
  • Proficiency with infrastructure-as-code tools (e.g., Terraform, Ansible).
  • Strong knowledge of CI/CD pipelines and tools (e.g., Bitbucket, Jenkins, ArgoCD).
  • Extensive experience with containerization and orchestration (e.g., Docker, Kubernetes).
  • Proven experience with major cloud services (e.g., AWS, Azure).
  • Strong programming/scripting skills in Python, Go, Bash, or similar.
  • Excellent written and verbal English communication skills.

Conditions

  • Opportunities for professional development within an international team.
  • Competitive salary.
  • Full-time position with a Chilean employment agreement (Contrato de trabajo).

APPLY VIA WEB View Job
Gross salary $1800 - 2900 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
DevOps Continuous Integration Virtualization Docker

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros. Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi. Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño. Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP). Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro. Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización. Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros.
Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi.
Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño.
Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP).
Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro.
Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización.
Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.) Conocimientos sólidos en Infraestructura como Código (IaC). Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI). Experiencia o certificación en FinOps (deseable). Manejo de contenedores y orquestadores (Docker, Kubernetes). Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.)
Conocimientos sólidos en Infraestructura como Código (IaC).
Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI).
Experiencia o certificación en FinOps (deseable).
Manejo de contenedores y orquestadores (Docker, Kubernetes).
Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

APPLY VIA WEB View Job
Gross salary $2700 - 3500 Full time
DevOps
  • coderslab.io
JavaScript Python Redis Node.js
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPSpara unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job offer is available on Get on Board.

Funciones del cargo

• Diseñar, implementar y mantener pipelines de integración y entrega continuas
(CI/CD).
• Colaborar con equipos de desarrollo para integrar prácticas DevOps en el ciclo de
vida del desarrollo de software.
• Automatizar procesos de infraestructura y despliegue de aplicaciones.
• Administrar y mantener la infraestructura en la nube y servidores.
• Monitorear y mejorar la disponibilidad, rendimiento y seguridad de los sistemas.

Requerimientos del cargo

• Dominio en administración de servicios en la plataforma AWS, incluyendo
Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, IAM Role, S3, EC2, ECS, Secret
Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API
Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions.
• Experiencia en construcción de infraestructura como código (IaC) con Terraform y
Cloudformation (herramientas excluyentes).
• Experiencia en despliegue de aplicaciones móviles offline.
• Experiencia con GitHub como gestor de código fuente y GitHub Actions como
herramienta de despliegue.
• Experiencia en análisis de código estático con SonarCloud.
• Experiencia en desarrollo de código con Python y Node.js con objetivo
operacional.
• Conocimiento en lenguaje SQL y gestión de bases de datos transaccionales.
• Habilidades de trabajo en equipo, autogestión, proactividad y comunicación
efectiva.
• Conocimientos en bases de datos NoSQL y bases de datos embebidas

APPLY VIA WEB View Job
$$$ Full time
Ingeniero DevOps Cloud (Ruby)
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Ruby on Rails Linux DevOps
En BC Tecnología somos una consultora líder en servicios IT con una destacada trayectoria de 6 años ofreciendo soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno. Nuestra propuesta es crear equipos ágiles y multidisciplinarios que trabajan en proyectos innovadores destacándose en infraestructura tecnológica, desarrollo de software y unidades de negocio.
El proyecto al que te integrarás está enfocado en la modernización y automatización de la infraestructura cloud y de los procesos DevOps, utilizando tecnologías de vanguardia como Azure, Terraform y Chef para garantizar altos estándares en la implementación, operación y disponibilidad de servicios críticos en diferentes plataformas y entornos de producción.

Official job site: Get on Board.

Responsabilidades principales

  • Diseñar y desarrollar recetas Chef utilizando Ruby on Rails para automatizar la implementación y configuración de servicios complejos como Oracle OSB y Oracle WebLogic.
  • Implementar y administrar infraestructura como código mediante Terraform, asegurando consistencia, trazabilidad y control de versiones robusto.
  • Gestionar y mantener entornos en Microsoft Azure, configurando y optimizando servicios cloud asociados.
  • Configurar y administrar servicios de red y seguridad mediante Cloudflare.
  • Automatizar procesos de integración continua y despliegue continuo (CI/CD) en entornos productivos, promoviendo rapidez y confiabilidad en la entrega de software.
  • Colaborar estrechamente con equipos multidisciplinarios para mejorar la eficiencia operativa, estabilidad y disponibilidad de los sistemas TI.
  • Participar activamente en la definición, evolución y documentación de la arquitectura cloud y procesos DevOps de la organización.

Requisitos del puesto

Buscamos un profesional con experiencia comprobada en entornos cloud, especialmente Microsoft Azure, y en la administración y automatización de infraestructura mediante herramientas de infraestructura como código como Terraform.
Debe tener un conocimiento avanzado en herramientas de automatización de configuración y despliegue, incluyendo Chef, Ansible y Terraform. Es fundamental el dominio en Linux y scripting para la gestión eficiente de sistemas y automatización de tareas.
Se requiere experiencia sólida en Ruby on Rails para el desarrollo de recetas Chef para automatizar la configuración de plataformas como Oracle OSB y Oracle WebLogic, servicios críticos en la operación de middleware empresarial.
También es necesario conocimiento profundo en prácticas y metodologías DevOps, así como en la implementación de pipelines de CI/CD para asegurar la calidad y rapidez en las entregas.
El manejo de Cloudflare para la gestión de redes, optimización y seguridad será clave en este rol.
Buscamos una persona proactiva, con pensamiento analítico y orientada a la mejora continua, capaz de trabajar de forma autónoma y en equipo, comunicando efectivamente y fomentando el trabajo colaborativo.

Habilidades y conocimientos deseables

Conocimientos adicionales en otras plataformas cloud como AWS o Google Cloud pueden ser valorados para complementar la gestión multi-cloud.
Experiencia previa trabajando en infraestructura para grandes entornos de producción con alta disponibilidad y recuperación ante desastres.
Familiaridad con metodologías ágiles y herramientas asociadas para la gestión de proyectos y equipos.
Certificaciones relacionadas con Azure, DevOps, o infraestructura como código serán un plus.
Capacidad para diseñar arquitecturas escalables y seguras, con foco en la automatización de la operación.

Qué ofrecemos

En BC Tecnología promovemos un ambiente colaborativo basado en el compromiso y el aprendizaje constante, donde cada profesional puede crecer técnica y profesionalmente.
Nuestra modalidad híbrida, situada en Las Condes, ofrece la flexibilidad del teletrabajo junto a la colaboración presencial en la oficina, asegurando un equilibrio óptimo entre vida personal y laboral.
Trabajarás con clientes de alto nivel en sectores diversos, en proyectos desafiantes que impulsan la innovación tecnológica.
Fomentamos una cultura inclusiva, basada en el respeto y la integración entre equipos. Aquí podrás desarrollar habilidades técnicas y blandas en un entorno dinámico y estimulante.

APPLY VIA WEB View Job
Gross salary $2000 - 3000 Full time
AWS Engineer (Semi Senior / Senior)
  • Niuro
DevOps Virtualization Amazon Web Services Docker
Niuro is a dynamic company that connects elite technology teams with leading U.S. companies, focusing on simplifying global talent acquisition through innovative, efficient solutions. We specialize in providing autonomous, high-performance tech teams that excel in delivering cutting-edge projects, chiefly within the industrial data space. Our teams engage in technically challenging and impactful initiatives that foster innovation and professional growth. By partnering with Niuro, you become part of a collaborative environment dedicated to excellence, continuous learning, and leadership development. Our commitment extends beyond technical contributions; we manage all administrative responsibilities such as hiring, payments, and training, enabling our engineers to focus wholly on delivering outstanding results.

Apply to this job directly at getonbrd.com.

Role and Responsibilities

As an AWS Engineer at Niuro, your primary responsibility will be designing, deploying, and maintaining scalable, secure, and efficient infrastructure solutions on AWS. You will work closely with cross-functional US-based teams to define architecture and automation using infrastructure as code.

  • Design and implement cloud infrastructure using AWS services such as IAM, S3, VPC, Lake Formation, CloudFormation, and CloudWatch.
  • Develop and maintain deployment pipelines and infrastructure automation primarily through Terraform and CI/CD tools.
  • Ensure system security, monitoring, and performance tuning to meet high availability and reliability standards.
  • Collaborate with development and operations teams to integrate cloud-based systems smoothly and optimize workflows.
  • Participate actively in code reviews, technical discussions, and knowledge sharing sessions.
  • Support incident response and troubleshoot complex infrastructure issues efficiently.

Required Skills and Experience

We are looking for a Semi Senior to Senior AWS Engineer with a strong background in cloud infrastructure design and deployment. The ideal candidate must demonstrate proficiency in a broad range of AWS services such as IAM (Identity and Access Management), S3 (Simple Storage Service), VPC (Virtual Private Cloud), Lake Formation, CloudFormation, and CloudWatch.
Experience with DevOps practices and tools like Terraform and CI/CD pipelines is essential to ensuring the reliable delivery and automation of infrastructure.
The candidate should have conversational-level English skills, enabling effective communication and collaboration with US-based teams. A proactive mindset, problem-solving abilities, and passion for continuous improvement are highly valued.
Soft skills such as teamwork, adaptability, and a results-oriented attitude are vital for success in our fast-paced and collaborative environment.

Desirable Additional Skills

While not mandatory, experience and familiarity with FastAPI, Gunicorn, Pydantic, Boto3, Aestiva HTML/OS, Docker, TeamCity, GitHub, or Gitea will be considered a strong advantage. Knowledge in these areas will enable deeper integration and more versatile contributions within our technology stack and DevOps workflows.
Exposure to containerization technologies such as Docker and continuous integration servers like TeamCity can enhance overall effectiveness in deployment automation and system reliability.

Benefits and Work Environment

At Niuro, we provide a flexible 100% remote working structure tailored for professionals residing within LATAM, empowering you to work from your preferred location without compromising professional growth.
We foster a culture of continuous learning, offering professional development through ongoing technical and soft skills training, in addition to leadership development opportunities.
Our projects are technically challenging and impactful, driving innovation in the industrial data domain, which supports your career advancement.
Niuro handles all administrative aspects including hiring, payments, and training, allowing you to focus on what matters most — your work and career growth.
There is potential for long-term engagement and transition to stable full-time employment following the successful completion of the initial contract.
Join Niuro and become part of a global community committed to excellence, collaboration, and innovation.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $2100 - 3000 Full time
Ingeniero Soporte Cloud y DevOps
  • Agilesoft SpA
Python Linux DevOps Virtualization

Agilesoft SpA es una pequeña empresa especializada en el desarrollo de software web y móvil, apasionada por las nuevas tecnologías, la innovación y un ambiente laboral agradable. Actualmente, buscamos expandir nuestro equipo técnico con la incorporación de dos Ingenieros de Soporte especializados en Cloud, DevOps, Kubernetes y Linux, que se sumen al equipo de operaciones y soporte de infraestructuras críticas. Estos profesionales serán clave para asegurar la estabilidad, disponibilidad y escalabilidad de las plataformas que soportan nuestros proyectos, aplicando prácticas de Site Reliability Engineering (SRE) y solución avanzada de problemas técnicos.

Official source: getonbrd.com.

Funciones

  • Implementar, administrar y optimizar infraestructuras en la nube utilizando tecnologías como Kubernetes (K8S) y herramientas DevOps.
  • Proporcionar soporte avanzado en Linux para entornos productivos, incluyendo diagnóstico, troubleshooting y solución de incidentes complejos.
  • Monitorear y garantizar la disponibilidad y rendimiento de los servicios cloud, aplicando las mejores prácticas de SRE.
  • Colaborar en la automatización de procesos para mejorar la eficiencia operativa y la entrega continua.
  • Documentar procesos, soluciones y participar en mejoras continuas del ciclo de vida del software y la infraestructura.
  • Trabajar colaborativamente con equipos de desarrollo y operaciones para asegurar una integración fluida y el despliegue seguro de aplicaciones.

Perfil requerido

Buscamos dos ingenieros con experiencia intermedia a avanzada en soporte y operación de infraestructuras cloud. Deberán tener conocimientos sólidos y demostrables en Kubernetes, Linux y metodologías DevOps. Se valorará experiencia en troubleshooting avanzado, monitoreo con herramientas modernas y principios de Site Reliability Engineering (SRE).

Es imprescindible que sean profesionales proactivos, con pensamiento analítico y capacidad para resolver problemas complejos bajo presión. Deben contribuir a mejorar la estabilidad y escalabilidad de los sistemas, trabajando con mentalidad colaborativa y comunicándose claramente en equipo. Buscamos personas apasionadas por la tecnología, orientadas al aprendizaje continuo y que disfruten aportar en un ambiente dinámico y flexible.

  • Experiencia práctica en administración de Linux (preferentemente distribuciones como Ubuntu, CentOS o Debian).
  • Dominio de Kubernetes y orquestación de contenedores.
  • Manejo de herramientas DevOps y CI/CD.
  • Capacidad para identificar y resolver problemas de infraestructura y aplicaciones en producción.
  • Conocimientos de cloud pública (AWS, Azure o Google Cloud) serán un plus.
  • Habilidades para documentar y estandarizar procesos.

Habilidades y conocimientos deseables

  • Experiencia con herramientas de monitoreo como Prometheus, Grafana o similares.
  • Conocimientos en scripting (Bash, Python) para automatización.
  • Familiaridad con la implementación de políticas de seguridad en entornos cloud.
  • Experiencia en metodologías ágiles y trabajo en equipos multidisciplinarios.
  • Certificaciones relacionadas a Kubernetes, DevOps o Cloud.

Condiciones

En Agilesoft ofrecemos un ambiente laboral grato, flexible, entretenido y dinámico, ideal para desarrollarse profesionalmente mientras se disfruta del trabajo en equipo. Proporcionamos computador para el trabajo, contrato indefinido y modalidad 100% remota, permitiendo trabajar desde cualquier ubicación.

Además contamos con beneficios de caja de compensación Los Andes para Chile, seguro complementario de salud y dental para empleados chilenos, y seguro Yunen para colaboradores en República Dominicana.

Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

© Get on Board. All rights reserved.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB View Job
Gross salary $2000 - 3000 Full time
DevOps Engineer Modyo
  • I2B Technologies
Linux DevOps Continuous Integration Virtualization
I2B Technologies es una empresa comprometida con impulsar la transformación digital en sus clientes, ayudándolos a mejorar la calidad de vida de los usuarios finales a través de desarrollos de alto impacto. La empresa cuenta con una amplia experiencia y metodología sólida basada en cuatro pilares fundamentales: Consultoría, Desarrollo de Software, Evolución y Data Science. Estos pilares sustentan proyectos que resuelven desafíos industriales y mejoran la experiencia entre empresas y sus usuarios.
Formar parte del equipo de I2B implica integrarse a un ámbito que no solo se ocupa de la creación y ejecución de ideas, sino también de un acompañamiento constante para asegurar el éxito y la evolución continua de los proyectos.

This offer is exclusive to getonbrd.com.

Funciones

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD) que aseguren la eficiencia y calidad en los procesos de desarrollo y despliegue.
  • Automatizar y gestionar la infraestructura usando herramientas como Terraform, Ansible u otras similares para optimizar y estandarizar los entornos.
  • Administrar entornos en la nube, priorizando plataformas como AWS, Azure o Google Cloud Platform, garantizando la disponibilidad, escalabilidad y seguridad de los mismos.
  • Supervisar el rendimiento de los sistemas, establecer monitoreos robustos y gestionar la resolución de incidentes para minimizar interrupciones y asegurar la continuidad operativa.
  • Colaborar estrechamente con los equipos de desarrollo para optimizar los despliegues, mejorar los entornos de testing y facilitar la integración entre aplicaciones y servicios.

Requisitos

Buscamos profesionales con más de 3 años de experiencia demostrable en roles de DevOps o ingeniería de infraestructura, capaces de manejar sistemas complejos y variadas tecnologías de automatización y nube.
Es imprescindible contar con experiencia en tecnologías de contenedores, particularmente Docker y Kubernetes, además de una sólida administración de servidores Linux para garantizar la estabilidad y seguridad de los servicios.
Se requiere un conocimiento profundo y práctico en herramientas y procesos de CI/CD, como Jenkins, GitLab CI o GitHub Actions, para asegurar la implementación continua en ambientes flexibles y escalables.
La experiencia con servicios en la nube es fundamental, destacando AWS, Azure o Google Cloud Platform, con habilidad para administrar y monitorear infraestructuras distribuidas e integradas.
Se valorarán certificaciones oficiales en Cloud Computing y metodologías DevOps, ya que demuestran un compromiso con la actualización constante y las mejores prácticas del área.
Además, el candidato debe poseer habilidades interpersonales para el trabajo en equipo, capacidad analítica para resolver problemas complejos y una mentalidad proactiva orientada a la mejora continua.

Deseable

Certificaciones en tecnologías cloud y DevOps, como AWS Certified Solutions Architect, Azure DevOps Engineer Expert o Certified Kubernetes Administrator, son altamente valoradas.
Experiencia adicional en herramientas complementarias de automatización y configuración como Puppet o Chef sería un plus importante.
Conocimientos en metodologías ágiles y herramientas de colaboración (JIRA, Confluence) ayudarán a integrarse fluidamente con los equipos multidisciplinarios.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Fitness subsidies I2B Technologies offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
Gross salary $3000 - 4000 Full time
Ingeniero/a DevOps
  • Devups
Agile DevOps Continuous Integration Virtualization
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

This company only accepts applications on Get on Board.

Job functions

  • Diseñar e implementar pipelines de CI/CD junto al PM asignado.
  • Colaborar con equipos de desarrollo en la automatización de pruebas y despliegues.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de infraestructuras y aplicar patrones comprobados de IaC y orquestación. Deberá tener experiencia optimizando performance y seguridad en pipelines de CI/CD, así como la capacidad para comunicar claramente retos técnicos complejos. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Herramientas CI/CD:
  • Jenkins
  • GitLab CI/CD
  • GitHub Actions
Contenedores y Orquestación:
  • Docker
  • Kubernetes
Infraestructura como Código (elige uno):
  • Terraform
  • CloudFormation

Desirable skills

  • Experiencia en AWS Services (EKS, ECS, Lambda) o Azure DevOps.
  • Monitoreo y logging con Prometheus, Grafana o ELK.
  • Conocimientos de Networking y seguridad en la nube.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer
  • Moventi
Redis DevOps Virtualization Amazon Web Services
At Moventi, we are dedicated to helping organizations lead digital transformation by leveraging technology with an innovative mindset. We work within a multidisciplinary team of talented professionals, fostering continuous learning of new technologies and collaborative work methodologies. Our projects involve building scalable and robust cloud infrastructures, developing and deploying cutting-edge solutions, and driving innovations that create a positive market impact. Our office is centrally located and inspires teamwork with agile workspaces and recreational areas to enhance creativity and productivity.

Find this job and more on Get on Board.

Key Responsibilities

We are looking for a DevOps Engineer to strengthen our infrastructure and operational capabilities. In this role, you will be responsible for auditing and optimizing cloud infrastructure—primarily on AWS—ensuring performance, cost-efficiency, and scalability. You will manage Amazon DynamoDB configurations in production environments and be directly involved in implementing secure self-hosted solutions, including migrations and deployments like Langfuse.
Your daily work will also include configuring and maintaining Redis instances for high-availability production environments and collaborating closely with backend development teams to design and sustain efficient work queues using Celery or similar technologies.
Another important aspect is designing, implementing, and maintaining comprehensive monitoring, logging, and alerting systems using tools such as Prometheus, Grafana, and AWS CloudWatch to ensure reliability and rapid issue detection. You will lead and automate CI/CD pipelines and containerization workflows using Docker, GitHub Actions, GitLab CI, among others.
Additionally, you will apply strong expertise in networking, security best practices, system availability, and disaster recovery planning to ensure the robustness of our systems.

Required Skills and Experience

  • Experience auditing cloud infrastructure, preferably on AWS, focusing on performance and costs.
  • Strong knowledge of Amazon DynamoDB, including production configuration and scalability.
  • Experience implementing self-hosted solutions, such as the secure migration and deployment of Langfuse.
  • Proficiency in implementing and configuring Redis for production environments.
  • Experience collaborating with backend teams to design and support work queues (Celery or similar).
  • Experience designing, implementing, and maintaining monitoring, logging, and alerting systems (Prometheus, Grafana, CloudWatch).
  • Proficiency in CI/CD and containerization tools (Docker, GitHub Actions, GitLab CI, etc.).
  • Strong understanding of networking, security, availability, and disaster recovery.

Desirable Skills and Attributes

It is highly valuable if candidates bring additional knowledge of alternative cloud providers or hybrid cloud strategies. Familiarity with advanced security frameworks and compliance standards will enhance our infrastructure security posture. Experience with infrastructure-as-code tools such as Terraform or CloudFormation is a plus, enabling infrastructure automation and repeatability.
Strong problem-solving skills, the ability to thrive in a collaborative team environment, excellent communication abilities, and a proactive mindset towards continuous learning and innovation will allow you to excel in this role and contribute to our company’s growth.

What We Offer

  • Continuous opportunities for professional growth and learning new technologies alongside a multidisciplinary team.
  • Regular team activities and events designed to boost creativity, well-being, and team spirit.
  • Holidays paid
Join us at Moventi and be part of the positive change we aim to create in the technology market!

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
QA Automation Engineer Python/Robot Framework
  • coderslab.io
Android iOS Python Agile
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos buscando un Ingeniero Senior en Automatización para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply without intermediaries through Get on Board.

Funciones del cargo

1. Desarrollo de Automatización de Pruebas:
o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y
APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).
o Garantizar la cobertura de pruebas para servicios REST y GraphQL.
o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba
existentes.
2. Pruebas de Bases de Datos:
o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y
no relacionales (e.g., DynamoDB).
3. Gestión y Colaboración:
o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.
o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para
garantizar que los requisitos de calidad se cumplan.
o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.
4. Gestión de Infraestructura:
o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.
o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento
de pruebas automatizadas.
5. Capacitación y Transferencia de Conocimiento:
o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de
automatización.
o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la
mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.
• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium
(Android/iOS).
• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.
• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).
• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).
• Conocimiento de herramientas de CI/CD como GitHub Actions.
• Experiencia trabajando con AWS.
• Manejo de herramientas de gestión como Jira y Confluence.
• Habilidades en documentación y colaboración con equipos técnicos y de negocio.
• Experiencia en entornos ágiles (Scrum)
• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje
continuo.
• Excelentes habilidades de comunicación y proactividad
• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $1500 - 2000 Full time
Especialista en Sistemas Linux y Automatización
  • BC Tecnología
  • Santiago (Hybrid)
Git Linux UML Virtualization
En BC Tecnología somos una consultora de Servicios IT que, desde hace 6 años, diseñamos soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno. Contamos con un portafolio integral que incluye consultoría, desarrollo de proyectos, outsourcing y servicios de soporte y administración IT. Nuestro enfoque está en metodologías ágiles, cambio organizacional y desarrollo de productos, formando equipos de trabajo especializados para potenciar cada proyecto. El especialista Linux se integrará a un equipo técnico dedicado a proyectos desafiantes de alto impacto, participando en iniciativas que impulsan la innovación tecnológica en un entorno profesional sólido.

This posting is original from the Get on Board platform.

Funciones y responsabilidad del puesto

El profesional seleccionado tendrá la responsabilidad principal de administrar y optimizar entornos RedHat Linux, garantizando la eficiencia y estabilidad de los sistemas operativos. Deberá desarrollar scripts en Shell/Bash para automatizar tareas operativas y de mantenimiento, mejorando los procesos internos del proyecto. También será encargado de gestionar repositorios de código y versiones utilizando herramientas de control como Git, ya sea en GitHub o GitLab. Además, debe crear y mantener documentación técnica detallada y diagramas UML para soportar el desarrollo y mantenimiento del sistema, facilitando el conocimiento transversal y la continuidad del proyecto.
Este rol requiere una participación activa en el equipo, colaborando en la resolución de incidencias y la implementación de mejoras técnicas, siempre orientado a cumplir con los objetivos del proyecto con calidad y eficiencia.

Requisitos y habilidades necesarias

Buscamos a un profesional con sólida experiencia comprobable en administración y operación de sistemas Linux, especialmente en distribuciones RedHat, capaz de manejar entornos productivos complejos con autonomía y criterio técnico.
Debe poseer amplias habilidades en scripting Shell/Bash para automatizar múltiples procesos de administración de sistemas, logrando reducir errores y aumentar la productividad del equipo. Es indispensable el conocimiento práctico en herramientas de control de versiones Git, ya sea en plataformas como GitHub o GitLab, para gestionar colaborativamente el código fuente.
Es fundamental contar con competencias para elaborar documentación técnica clara y precisa, así como diagramas UML que ayuden a visualizar arquitecturas y flujos de procesos, facilitando el trabajo en equipo y la transferencia de conocimiento.
Se valorará especialmente la experiencia o conocimientos adicionales en soluciones en la nube como AWS S3 y la gestión de protocolos de transferencia de archivos (FTP). También es deseable haber trabajado con integración de sistemas mediante protocolos SAMBA/CIFS, especialmente en entornos de almacenamiento virtualizado (VMS).
Además, el candidato ideal debe tener capacidad para el trabajo colaborativo bajo metodologías ágiles, orientación al detalle, pensamiento analítico y proactividad ante la identificación de oportunidades de mejora.

Habilidades y conocimientos deseables

Se valorará positivamente la experiencia en administración y manejo de servicios en la nube, especialmente en AWS, como el uso de AWS S3 para almacenamiento y gestión de datos. Es deseable conocimiento en protocolos FTP que faciliten la transferencia segura y eficiente de archivos.
También resulta importante la experiencia en integración de sistemas utilizando SAMBA/CIFS para compartir recursos en entornos de almacenamiento virtualizado, orientados a mejorar la interoperabilidad dentro de las arquitecturas de TI.
Conocimientos adicionales en seguridad informática, monitoreo y optimización del rendimiento de sistemas Linux serán considerados un plus para fortalecer el perfil técnico del candidato.

APPLY VIA WEB View Job
$$$ Full time
Senior Site Reliability Engineer (SRE)
  • Moventi
Python MySQL Go Kubernetes
Moventi is a forward-thinking technology company dedicated to helping organizations embrace innovation through cutting-edge technologies. We provide an environment where multidisciplinary talents collaborate to drive digital transformation and shape the future with technology. Our teams engage with state-of-the-art cloud infrastructure projects and large-scale SaaS platforms designed to scale and maximize reliability and efficiency.
Our current project focuses on designing, building, and operating highly available, scalable infrastructure on cloud platforms such as AWS EKS and Azure AKS. This includes advanced data ingestion pipelines handling hundreds of terabytes to petabytes of data, leveraging technologies like Clickhouse and Kafka. We prioritize observability, security, and automation using modern tools and practices to ensure robust SaaS operations.

Job opportunity published on getonbrd.com.

Primary Responsibilities and Role Overview

As a Senior Site Reliability Engineer (SRE), you will be instrumental in architecting, deploying, and managing complex cloud-native infrastructure in large-scale SaaS environments. Your role includes designing and maintaining Kubernetes clusters (AWS EKS, Azure AKS) using Infrastructure as Code tools such as Terraform, ensuring seamless scalability and reliability.
You will be responsible for implementing observability solutions across monitoring, logging, tracing, and metrics collection using Prometheus, Grafana, Datadog, and ELK ecosystem to maintain robust system health and performance. Managing data ingestion pipelines with high-volume technologies like Clickhouse and Kafka will be part of your core tasks.
Collaboration with cross-functional teams to drive GitOps CI/CD processes, writing automation scripts in Python, Go (Golang), and Bash to streamline deployments and operations, and enforcing security best practices involving encryption, key management, and policy enforcement are key duties. In addition, you will design and maintain disaster recovery strategies for critical components such as MySQL, Kafka, and Zookeeper, ensuring business continuity and data integrity.
This role requires active participation in a large, dynamic team environment where your expertise will elevate operational standards and foster innovation around high availability SaaS platforms.

Required Experience and Skills

We are looking for a professional with a minimum of 7 years designing, building, and maintaining SaaS environments with a strong focus on large-scale cloud infrastructure. Candidates must have at least 5 years of hands-on experience working with AWS EKS and Azure AKS managed Kubernetes clusters, leveraging Terraform for infrastructure automation.
Key technical expertise includes managing data ingestion in large environments through Clickhouse and Kafka, handling data volumes scaling up to petabytes. A solid background in observability tools such as Prometheus, Grafana, Datadog, and ELK for monitoring, logging, and tracing is mandatory.
Expertise in GitOps practices and CI/CD pipelines is essential. We expect proven scripting skills in Python, Go (Golang), Bash, and AWS CLI to automate operational workflows. Candidates must demonstrate at least 3 years of experience managing security operations including enforcing infrastructure security policies, managing encryption at rest and in transit, and key management.
In-depth knowledge of disaster recovery planning and execution for distributed systems including MySQL, Kafka, and Zookeeper is required. The ideal candidate should be a proactive and collaborative team player, able to communicate complex technical concepts effectively while taking initiative in a fast-paced innovative environment. Strong problem-solving skills, risk management, and a passion for continuous improvement are imperative to succeed in this role.

Additional Preferred Skills and Experience

Experience with service mesh technologies such as Istio and Kubernetes operators is highly valued to optimize application connectivity and lifecycle management. Familiarity with large scale data architectures and tuning Kafka clusters would be advantageous. Prior exposure to cloud security frameworks and compliance standards, as well as experience leading or mentoring SRE teams within enterprise environments, will be considered a strong plus.
An innovative mindset with eagerness to explore emerging tools and automation techniques is welcome, along with excellent interpersonal skills suitable for a multidisciplinary collaborative culture.

Our Offer and Work Environment

At Moventi, we provide a stimulating and innovative work atmosphere located in the heart of San Isidro, Lima, featuring convenient parking and recreational zones to promote wellbeing during breaks. Our hybrid work model gives you the flexibility to balance time between our fully equipped office and remote work tailored to team and personal preferences.
We prioritize professional growth by exposing you to challenging, diverse projects that foster continuous learning and skills enhancement. Our organizational culture is based on transparency, collaboration, commitment, risk-taking, and innovation. We offer formal employment contracts with full legal benefits from day one, ensuring job security and comprehensive protections.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Arquitecto Cloud AWS
  • Moventi
  • Lima (In-office)
.Net Agile DynamoDB CI/CD

Somos una empresa peruana de tecnología con proyectos en Perú, USA y Europa. Tenemos más de 10 años en el mercado ofreciendo soluciones tecnológicas de alto impacto y proyectos sumamente retadores con grandes clientes.

Buscamos el mejor talento, que se rete constantemente y apasionados por la tecnología.
¿Estás listo para asumir este reto? 👨🏻‍💻

Apply without intermediaries through Get on Board.

Funciones del cargo

  • Experiencia sólida en arquitecturas cloud
  • Creación de arquitecturas distribuidas utilizando servicios como EC2, S3, RDS, DynamoDB y Lambda.
  • Experiencia en proyectos de banca
  • Certificaciones relevantes como AWS Certified Solutions Architect o AWS Certified DevOps Engineer
  • Experiencia con CI/CD utilizando AWS CodePipeline, CodeBuild y CodeDeploy.

Requerimientos del cargo

  • Bachiller o Titulado de carreras como Ing. de Sistemas, Informática o afines.
  • Más de 5 años diseñando e implementando soluciones en la nube.
  • Disponibilidad para trabajar de manera híbrida en San Isidro-Lima

Opcionales

Se valorará la experiencia previa trabajando en entornos ágiles, conocimientos adicionales en tecnologías cloud relacionadas con .Net, así como habilidades para la gestión de equipos multidisciplinarios y la capacidad para participar activamente en el diseño de soluciones de alta disponibilidad y escalabilidad.

Asimismo, tener experiencia en la integración de sistemas financieros, familiaridad con arquitecturas seguras y con la normatividad vigente del sector financiero contribuirá a un desempeño óptimo en el rol.

Condiciones

En Moventi, ofrecemos un ambiente de trabajo colaborativo, con oficinas céntricas en San Isidro, Lima, que cuentan con estacionamiento y áreas recreativas para pausas activas. Valoramos la transparencia, el compromiso y la innovación, promoviendo un espacio para el crecimiento profesional y personal. Nuestro esquema es híbrido, facilitando la combinación entre trabajo presencial y remoto, adaptándonos a las necesidades del equipo.

Oportunidades de crecimiento y aprendizaje constante

  • Planilla desde día 1
  • Trabajo híbrido
  • Proyectos retadores

Partially remote You can work from your home some days a week.
Health coverage Moventi pays or copays health insurance for employees.
Computer provided Moventi provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $2000 - 3000 Full time
Experto en Infraestructura AWS &Amp; CI/CD
  • OlaClick
Git Linux Docker CI/CD
OlaClick es una innovadora plataforma digital enfocada en la gestión y digitalización de restaurantes en América Latina, con presencia en más de 20 países y más de 20,000 clientes activos. OlaClick ofrece menús digitales interactivos, herramientas integradas de pago y campañas automatizadas para que los restaurantes puedan comenzar a vender en línea rápidamente, sin necesidad de conocimientos técnicos ni comisiones ocultas. El proyecto se centra en automatizar la gestión de pedidos y aumentar significativamente el volumen de ventas, transformando la experiencia operativa y comercial de los establecimientos gastronómicos.

This job is original from Get on Board.

¿Qué harás en OlaClick?

Como Experto en Infraestructura AWS e Integración Continua, tu principal objetivo será diseñar, mantener y optimizar la infraestructura cloud sobre AWS, asegurando alta disponibilidad, seguridad y rendimiento óptimo de los sistemas backend de OlaClick. Gestionarás pipelines de CI/CD que permitan acelerar la entrega continua con calidad, así como la automatización de tareas operativas para los entornos de staging y producción. Colaborarás estrechamente con otros ingenieros y equipos de producto en un entorno de trabajo ágil, aplicando metodologías modernas para garantizar despliegues eficientes y la estabilidad de la plataforma.
  • Diseñar y mantener la infraestructura cloud en AWS.
  • Implementar pipelines de integración y despliegue continuo (CI/CD) para optimizar la velocidad y calidad de entrega.
  • Monitorear, analizar y optimizar el rendimiento, la disponibilidad y la seguridad de los sistemas backend.
  • Automatizar la gestión operativa de entornos staging y producción.
  • Colaborar con los equipos de ingeniería y producto para asegurar alineación y éxito en entregables.

¿Qué esperamos de ti?

Buscamos un profesional con mínimo 3 años de experiencia sólida y comprobable en AWS, habiendo trabajado con servicios como EC2, RDS, S3, Lambda y API Gateway. Es fundamental contar con dominio en herramientas de integración y despliegue continuo, especialmente GitLab CI, que permitan construir pipelines robustos y eficientes. Se requiere conocimiento profundo en sistemas Linux, incluyendo scripting para automatización, manejo de contenedores con Docker y control de versiones usando Git.
Además, es deseable experiencia en Infrastructure as Code (IaC), preferentemente con Terraform, para facilitar la reproducibilidad y escalabilidad de la infraestructura. La habilidad para diagnosticar y resolver problemas complejos es fundamental, junto con una comunicación efectiva para colaborar dentro de equipos multifuncionales y dinámicos. La experiencia en ambientes altamente transaccionales y la orientación al detalle completan el perfil técnico ideal.
Se valorarán especialmente las certificaciones oficiales de AWS, conocimientos en herramientas de monitoreo como Grafana y experiencia previa en startups o entornos con altos volúmenes de tráfico.

✔️Puntos a favor

Contar con certificaciones oficiales AWS que certifiquen tu conocimiento avanzado en sus servicios y buenas prácticas en la nube será un gran diferencial. También valoramos la experiencia implementando soluciones de monitoreo y observabilidad con Grafana para mantener un control riguroso sobre la salud y desempeño de los sistemas. Haber trabajado en entornos altamente transaccionales y dinámicos demuestra tu capacidad para manejar infraestructuras críticas con cargas variables y elevados niveles de concurrencia.

🚀¿Qué te ofrecemos?

En OlaClick ofrecemos una relación laboral estable con una modalidad de trabajo 100% remota, que te permite desempeñarte desde cualquier país de América Latina o Brasil. Nuestra cultura se caracteriza por un ambiente laboral positivo, retador y colaborativo, compuesto por un equipo talentoso y con buena disposición para compartir conocimiento y crecer juntos.
Adicionalmente, facilitamos clases de idiomas gratuitas (inglés o portugués) dos veces por semana a través de Políglota.org para tu desarrollo personal y profesional. Dispondrás de un día libre por tu cumpleaños y un día off extra cada trimestre trabajado, fomentando el equilibrio entre vida laboral y personal. También promovemos capacitaciones continuas tanto en el área técnica como en habilidades blandas, brindándote oportunidades reales de crecimiento dentro de una startup global en expansión.

APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply to this job from Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

APPLY VIA WEB View Job
$$$ Full time
Data Cloud Architect
  • Moventi
Lean REST API Virtualization Amazon Web Services
Moventi is at the forefront of leveraging technology to transform the regulatory strategies within the pharmaceutical industry. Our dedicated Regulatory Strategy team focuses on using innovative technical solutions to enhance operational efficiencies and create synergistic effects throughout our processes. As a Data Cloud Architect, you will collaborate with diverse teams and professionals, driving significant business value through the development of comprehensive technical architectures.

Apply to this job from Get on Board.

Roles and Responsibilities:

As a Data Cloud Architect, your primary responsibility is to partner with J&J Technology Services and various stakeholders in designing scalable and supportable technical systems to bolster Regulatory Strategy and Intelligence. You will:
  • Develop architecture artifacts in concert with product owners, engineers, and other stakeholders, ensuring alignment with business objectives.
  • Create a range of architecture documentation including business context diagrams, data models, and integration architectures.
  • Ensure architecture compliance with Regulatory, Enterprise, and R&D technology strategies.
  • Utilize standard tools such as Lean IX and Confluence to capture design decisions and architectural information.
  • Foster scalable technologies through reusable integration patterns and intelligent automation.

Education and Experience Required:

The ideal candidate will possess a strong educational background with a BA/BS degree in a technical, engineering, or scientific field. Furthermore, you must have:
  • At least 5 years of experience as a Solution Architect within the Pharmaceutical development landscape.
  • Proficiency in designing and operationalizing integrations using methods such as REST APIs and data pipelines.
  • Extensive experience working with structured RDBMS and content management platforms.
  • A well-rounded understanding of cloud-native solution engineering on platforms such as AWS, GCP, or Azure.
  • Expertise in architecting regulated systems, ensuring compliance with GxP, HIPAA, GDPR, etc.
  • Proficiency in deep learning frameworks like TensorFlow or PyTorch, alongside a solid grasp of NLP techniques.
  • Strong communication skills that enable the translation of complex topics into clear architectural diagrams and presentations.

Desirable Skills and Experience:

While not mandatory, the following certifications and experiences are highly desirable:
  • AWS Well-Architected Framework certification.
  • AWS Certified Machine Learning Specialty certification.
  • Experience leading technical discussions and steering technical consensus among stakeholders.
  • Ability to design robust, scalable, and flexible solutions that cater to multi-national users and Health Authority communities.

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

This job offer is on Get on Board.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Job opportunity published on getonbrd.com.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $1200 - 1400 Full time
Ingeniero Cloud
  • BC Tecnología
  • Lima (In-office)
Amazon Web Services Docker Microservices Jenkins
En BC Tecnología, somos una consultora de TI en constante evolución, ofreciendo servicios que incluyen la gestión de portafolios, desarrollo de proyectos y outsourcing de talento en diferentes áreas tecnológicas. Durante los últimos 6 años, hemos trabajado con clientes en servicios financieros, seguros, retail y gobierno, creando soluciones personalizadas que responden a las necesidades específicas de cada cliente. Nuestras áreas de negocio abarcan consultoría, formación de equipos de trabajo, y servicios de soporte y administración IT, siempre con un enfoque claro en el cliente y el uso de metodologías ágiles.

Applications at getonbrd.com.

✅ Requerimiento:

Estamos buscando un Especialista Cloud que cuente con al menos 2 a 3 años de experiencia en el área. Las responsabilidades incluirán:
  • -Experiencia práctica con Docker (creación, optimización de imágenes).
  • -Conocimientos avanzados de AWS (despliegue, configuración y seguridad).
  • -Experiencia en arquitectura de software (microservicios, escalabilidad, etc.).
  • -Manejo de herramientas de CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • -Habilidades de liderazgo técnico y comunicación efectiva.

✅ Condiciones:

El candidato ideal deberá tener habilidades técnicas sólidas y ser un buen comunicador. Ofrecemos un contrato por proyecto estimado a 6 meses, con trabajo presencial en nuestras oficinas en San Isidro, Perú. La disponibilidad requerida es de lunes a viernes de 9:00 am a 6:00 pm. El salario se definirá de común acuerdo, basado en la experiencia y conocimientos del candidato.

Deseable:

Sería ideal contar con conocimientos adicionales en Kubernetes, Terraform u otras plataformas de cloud computing, lo que será valorado durante el proceso de selección.

APPLY VIA WEB View Job
Gross salary $2000 - 2300 Full time
Arquitecto Cloud Presencial
  • BC Tecnología
  • Lima (In-office)
Agile Continuous Integration Virtualization Amazon Web Services
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente. Nos especializamos en administrar portafolios y desarrollar proyectos innovadores para sectores de servicios financieros, seguros, retail y gobierno. Buscamos crear equipos de trabajo ágiles para abordar desafíos complejos utilizando metodologías como Scrum y Kanban. Actualmente, estamos enfocados en la creación de soluciones de cloud computing utilizando tecnologías de vanguardia.

Official source: getonbrd.com.

Responsabilidades del Rol

Como Arquitecto Cloud, tu papel será fundamental en la creación e implementación de infraestructuras en la nube eficientes y seguras. Tus responsabilidades incluirán:
  • Diseñar arquitecturas de software utilizando microservicios y asegurar la escalabilidad.
  • Optimizar y crear imágenes Docker para diversos entornos.
  • Asegurar la configuración, seguridad y despliegue eficiente en AWS.
  • Integrar y gestionar herramientas de CI/CD como Jenkins, GitLab CI y GitHub Actions.
  • Colaborar con equipos multidisciplinarios para la implementación de soluciones en la nube.
  • Manejar herramientas como Kubernetes y Terraform para facilitar la orquestación y automatización.

Perfil Buscado

Buscamos a un profesional con al menos 2 a 3 años de experiencia en arquitecturas en la nube. El candidato ideal deberá contar con un sólido conocimiento en:
  • Docker - Creación y optimización de imágenes.
  • AWS - Despliegue, configuración y seguridad avanzada.
  • Arquitectura de software - Microservicios y escalabilidad.
  • CI/CD - Familiaridad con herramientas como Jenkins, GitLab CI, y GitHub Actions.
  • Kubernetes y Terraform son altamente valorados.
Además, es esencial poseer habilidades de trabajo en equipo, buena comunicación y la capacidad para resolver problemas de manera creativa.

Conocimientos Deseables

Si bien no son requisitos obligatorios, se valorarán habilidades adicionales en la gestión de proyectos, así como certificaciones en tecnologías de la nube que demuestren tu compromiso con la formación continua. La experiencia previa trabajando en entornos ágiles será una ventaja y permitirá integrarse de manera efectiva en nuestro equipo colaborativo.

Beneficios de Trabajar con Nosotros

Ofrecemos un entorno laboral dinámico y colaborativo, donde el crecimiento profesional es una prioridad. Nuestro modelo de trabajo híbrido te permite disfrutar de un equilibrio óptimo entre el trabajo remoto y presencial. Además, tendrás acceso a oportunidades de capacitación continua y un ambiente que fomenta la innovación.

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2000 - 2500 Full time
DBA Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
En *BC Tecnología*, somos una consultora TI con un enfoque claro en el cliente. Nuestros equipos de trabajo ágiles están diseñados para colaborar en proyectos innovadores, especialmente en el sector educativo. Tenemos más de 6 años de experiencia creando soluciones IT que se ajustan a las necesidades de nuestros clientes. Este proyecto específico es emocionante y se basa en la administración y optimización de bases de datos Oracle, siendo una oportunidad ideal para quienes buscan hacer un impacto significativo en su campo.

This posting is original from the Get on Board platform.

Tus responsabilidades:

  • 🔧 Gestionar bases de datos Oracle en producción y desarrollo, asegurando su alta disponibilidad y rendimiento.
  • ⚙️ Configurar y gestionar entornos de alta disponibilidad usando Oracle RAC y Data Guard.
  • ☁️ Migrar bases de datos a Oracle Cloud y otros entornos Cloud.
  • 🛠 Automatizar tareas de DBA y realizar monitoreo continuo para optimizar el rendimiento.
  • 🛡 Diseñar planes de recuperación ante desastres y políticas de backup/restore.
  • 🔄 Colaborar con equipos de desarrollo y operaciones para integrar las bases de datos con las aplicaciones.

¿Qué buscamos?

  • 🎯 Experiencia sólida en Oracle 19c o superior.
  • ⚡ Conocimiento profundo de Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • ☁️ Experiencia con Oracle Cloud Infrastructure (OCI) y otros servicios Cloud como AWS o Azure (deseable).
  • 🛠 Habilidades en scripting para automatización de tareas DBA (Bash, Python).
  • 📊 Experiencia en monitoreo, tuning y optimización de bases de datos.
  • 🗂 Conocimiento avanzado en PLSQL, tuning de SQL, y gestión de backups (RMAN, Data Pump).
  • 🔐 Experiencia en seguridad y encriptación de bases de datos.

¿Qué ofrecemos?

  • 🚀 Proyecto de 5 meses con posibilidad de extensión.
  • 🌍 Trabajo híbrido en un ambiente dinámico.
  • 🎓 Oportunidades de crecimiento y aprendizaje con nuevas tecnologías.

Beneficios adicionales:

  • Modalidad híbrida (presencial 2 veces por semana) en Lima, Perú.
  • Horario flexible de lunes a viernes de 9:00 a 18:00.
  • Oportunidad de trabajar en proyectos innovadores que impactan el sector educativo.
  • Ambiente dinámico y con muchas oportunidades de crecimiento.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2800 - 3000 Full time
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

Job opportunity published on getonbrd.com.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2200 - 2700 Full time
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Net salary $1000 - 1400 Full time
Analista QA
  • Defontana
  • Santiago (Hybrid)
Agile QA ERP AWS

¿Te gusta trabajar con las últimas tecnologías? ¿Te consideras innovador y quieres participar proyectos de modernización de plataformas? Si tu respuesta es SÍ, este desafío es para ti. En Defontana buscamos nuevos talentos para formar parte de nuestros proyectos y construir en conjunto las mejores soluciones empresariales del mercado.

DEFONTANA ofrece soluciones empresariales 100% WEB, siendo la empresa líder del mercado latinoamericano en la implementación de software ERP.

Buscamos ofrecer grato ambiente laboral, compañerismo, conocimiento y desafíos, todos los ingredientes necesarios para hacer de tu día a día en Defontana algo interesante, algo diferente y que crezcas profesionalmente.

En el área de desarrollo de DEFONTANA estamos embarcados en una serie de proyectos que buscan expandir las funcionalidades disponibles para nuestros clientes, intentando generar un ecosistema que les entregue todo lo que necesitan para administrar con éxito sus empresas.

Apply directly on Get on Board.

Funciones del cargo

Ser parte de la gestión de calidad de los productos asignados para realización de QA: diseño y ejecución integral de pruebas sobre el ERP Defontana según las necesidades de sus productos. Todas ellas creadas con el objetivo de detección temprana de errores durante el proceso de desarrollo.

Se busca en específico un analista QA que trabaje directamente con el equipo encargado de la Transformación Digital de la compañia, el cual esta compuesto por 2 celulas, siendo el responsable el Gerente del área misma (Gerencia de Transformación Digital), quien sera ademas jefatura directa de quien postule al cargo.
Alguna de las tareas que se deben desempeñar son las sgtes :

  • Realizar planes de pruebas
  • Ejecutar testing de productos
  • Simular ejecuciones de productos y su rendimiento
  • Evaluar exhaustivamente los resultados
  • Revisar especificaciones de servicios y productos
  • Asegurar un funcionamiento óptimo del software
  • Potenciar las estrategias de prueba

Requerimientos del cargo

Para este cargo se debe tener conocimiento o el perfil apropiado en algunos temas, tales como:

  • Tener y aplicar conocimiento sobre las distintas tipos de pruebas
  • Documentación de procesos.
  • Proponer soluciones a diferentes errores que se encuentren, de manera de no tan solo realizar pruebas, sino que aportar en las soluciones de las mismas.

Opcionales

Deseables:

  • Conocimiento en desarrollo de software: ciclos de vida, desarrollo ágil, etc.
  • Conocimientos básicos en AWS.

Condiciones

- Bono trimestral, según resultados de la empresa y antigüedad.
- Se entrega computador de trabajo.
- Trabajo remoto dos días a la semana.

APPLY VIA WEB View Job
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Docker

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Find this vacancy on Get on Board.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.
  • Algunos proyectos pueden incluir desafíos complejos en visión por computador.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply directly through getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB View Job
Gross salary $2500 - 4000 Full time
Senior Data Scientist
  • MAS Analytics
  • Santiago (Hybrid)
Virtualization Amazon Web Services Azure Artificial Intelligence

MAS Analytics es una consultora de datos e inteligencia artificial que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día estamos con un crecimiento importante en proyectos de AI y necesitamos ingeniero/as con experiencia y apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

Find this vacancy on Get on Board.

Funciones del cargo

Estamos buscando un profesional apasionado por las soluciones basadas en Inteligencia Artificial y Machine Learning, con experiencia en el desarrollo y aplicación de modelos avanzados para clientes de diversas industrias. El candidato ideal será capaz de trabajar bajo la metodología de consultoría, comprendiendo las necesidades del cliente y proponiendo soluciones innovadoras que agreguen valor a sus negocios.

  • Diseñar, desarrollar e implementar soluciones de AI, Machine Learning y Deep Learning para clientes de diversas industrias
  • Colaborar estrechamente con clientes para entender sus retos y necesidades, proponiendo soluciones personalizadas
  • Mantenerse actualizado sobre las últimas tendencias y herramientas en AI y ML
  • Trabajar con herramientas y plataformas en la nube para el desarrollo y despliegue de soluciones
  • Medir el impacto generado por las soluciones implementadas

Requerimientos del cargo

  • Título universitario en Ciencias de la Computación, Ingeniería, Estadística o carreras afines
  • 2-4 años de experiencia en desarrollo de soluciones basadas en AI, Machine Learning o Deep Learning
  • Experiencia trabajando con herramientas y plataformas en la nube (ej. AWS, Google Cloud, Azure)
  • Profundo conocimiento en frameworks y librerías como TensorFlow, PyTorch, Keras, Scikit-learn, entre otros
  • Capacidad analítica y habilidad para trabajar en equipos multidisciplinarios
  • Familiaridad con la metodología de consultoría y enfoque orientado al cliente

Deseables

Certificaciones Cloud orientadas a AI o Machine Learning serán valoradas positivamente.

Condiciones

  1. Horario flexible
  2. Seguro complementario 🧑‍⚕️
  3. Ropa relajada 😍😍
  4. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  5. Ambiente laboral joven
  6. Viernes medio día
  7. Vacaciones extra 🌞🏝
  8. Celebraciones de cumpleaños 🎁🎊
  9. Actividades de empresa 🍻⚽
  10. Y muchos más que podrás conocer…

Accessible An infrastructure adequate for people with special mobility needs.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer Especialista en GCP
  • Muruna
  • Lima (Hybrid)
Java Python Scala Business Intelligence

Muruna es una empresa chilena especializada en el sector financiero, enfocada en entregar soluciones tecnológicas y servicios de staffing altamente especializados. Nuestro portafolio incluye proyectos estratégicos que abordan la gestión y transformación de grandes volúmenes de datos, fundamentales para la toma de decisiones en organizaciones líderes del rubro financiero.

Este rol está orientado a la ingeniería de datos, con foco en la construcción, desarrollo y optimización de pipelines dentro del ecosistema Google Cloud Platform, asegurando la disponibilidad, calidad y continuidad de la información para los equipos de negocio y análisis.

En Muruna fomentamos un entorno de innovación, colaboración y mejora continua, donde el talento no solo aporta valor técnico, sino que también impulsa el éxito operativo y estratégico de nuestros clientes.

Apply to this job at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines robustos de ETL/ELT en Google Cloud Platform para transformar datos crudos en formatos analíticos optimizados.
  • Gestionar y optimizar bases de datos relacionales, Big Data, Data Lake y Data Warehouse, garantizando un almacenamiento eficiente y de alta disponibilidad.
  • Extraer y procesar datos de diversas fuentes internas y externas, asegurando la integridad, calidad y utilidad de la información para su análisis posterior.
  • Implementar procesos automatizados de limpieza, homologación y clasificación de datos para facilitar su análisis y visualización.
  • Automatizar el flujo de datos para mantener actualizaciones constantes y confiables en los sistemas de información.
  • Colaborar estrechamente con usuarios de negocio para entender sus requerimientos específicos y traducirlos en soluciones técnicas efectivas, aplicando principios de Business Intelligence y estrategias de datos para dashboards y reportes.
  • Procesar grandes volúmenes de datos utilizando herramientas de Big Data en la nube, principalmente en GCP y, de manera complementaria, en AWS.

Requisitos y conocimientos clave

Buscamos profesionales con formación universitaria en Ingeniería de Sistemas, Ingeniería de Software o carreras relacionadas, que cuenten con al menos 3 años de experiencia en la construcción e implementación de pipelines de datos en entornos Google Cloud Platform. Es fundamental que manejen servicios como Cloud Storage, DataFlow, BigQuery, BigTable, Pub/Sub, DataProc y Composer.

La certificación Data Engineer en GCP será una ventaja considerable, especialmente en candidatos con al menos un año de experiencia práctica en GCP. Se requiere experiencia sólida en Business Intelligence, entendiendo cómo aplicar estrategias de negocio para gestionar y analizar datos orientados a dashboards.

El dominio intermedio-avanzado de bases de datos SQL es imprescindible, así como experiencia de al menos 3 años en explotación y manipulación de bases de datos. Se valorará conocimiento básico en programación con Java y Python o Scala para el tratamiento y exposición de datos vía APIs.

Experiencia en ambientes cloud, principalmente GCP, con al menos un año de trabajo en estos entornos. Conocimientos en metodologías ágiles serán un plus importante para adaptarse al ritmo dinámico del equipo.

Además, buscamos candidatos que cuenten con habilidades destacadas en comunicación, análisis crítico, pensamiento estratégico, orientación a resultados y trabajo colaborativo en equipos multidisciplinarios. El nivel de inglés requerido es intermedio para interactuar en contextos técnicos y documentales.

Habilidades y conocimientos deseables

Se valorará especialmente contar con certificaciones oficiales de Google Cloud Platform en Data Engineering, experiencia previa con AWS y conocimientos avanzados en herramientas de Big Data como Apache Spark o Hadoop. Asimismo, la familiaridad con metodologías ágiles como Scrum o Kanban facilitará la integración y adaptación a los ciclos de desarrollo y despliegue.

Competencias blandas adicionales como iniciativa, proactividad para resolver problemas complejos y capacidad para trabajar en equipos interdisciplinarios distribuidos también serán muy bien valoradas.

Beneficios y ambiente laboral

  • 🎂 Medio día libre en tu cumpleaños + una Gift Card de $25 para que celebres a tu manera.
  • 📚 Certificaciones oficiales de Google (¡somos Partners!), para que sigas creciendo profesionalmente.
  • 🧠 Coaching profesional personalizado, para acompañarte en tu desarrollo y bienestar.
  • 📦 Día libre por mudanza, porque sabemos que cambiarse de casa requiere tiempo (y energía).
  • 👶 Bono por nacimiento, porque los grandes momentos merecen celebrarse.
  • 🇨🇱 Bonode Fiestas Patrias, para que disfrutes con todo el sabor local.
  • 😄 Bono por Referido.

Computer provided Muruna provides a computer for your work.
APPLY VIA WEB View Job
$$$ Full time
Senior Data Engineer
  • Moventi
Python Analytics SQL Web server
Moventi is a forward-thinking technology company dedicated to empowering organizations to lead in their industries through innovation and advanced technology solutions. Our work culture encourages transparency, teamwork, and continuous learning. We operate from a centrally located office offering modern collaborative spaces, including agile meeting tables and recreational areas, fostering a vibrant and supportive environment. The Senior Data Engineer will join a multidisciplinary team working on transformative projects in healthcare technology and software services, enabling data-driven decision making that positively impacts healthcare outcomes and technological advancements within our clients' businesses.

This job offer is on Get on Board.

Role and Responsibilities

As a Senior Data Engineer at Moventi, you will be a key player in architecting, developing, and maintaining scalable data pipelines and infrastructure. Your responsibilities will include:
  • Designing and implementing robust ETL/ELT pipelines using SQL, Python, and Airflow to process large volumes of complex data efficiently.
  • Managing and optimizing data storage and processing frameworks, particularly leveraging Snowflake's cloud data platform for high performance and scalability.
  • Collaborating closely with data scientists, analysts, and stakeholders to translate business needs into effective data solutions.
  • Developing and maintaining data visualization tools and dashboards using Tableau to provide actionable insights to business users.
  • Ensuring data quality, security, and governance best practices are implemented and monitored.
  • Mentoring junior data engineers and sharing knowledge to enhance team capabilities.
Your role is vital to transforming raw data into meaningful analytics deliverables that drive strategic business decisions and innovation within healthcare technology and software service domains.

Requirements and Qualifications

We are looking for a Senior Data Engineer with the following expertise and skills:
  • 5+ years of professional experience in data engineering or analytics engineering roles
  • Proven expertise with Snowflake (data modeling, performance optimization, security)
  • Strong proficiency in Python for data processing and automation
  • Hands-on experience with Apache Airflow for the orchestration of workflows
  • Proficiency in SQL with experience in optimizing queries and data transformations
  • Experience developing data visualizations using Tableau
  • Familiarity with healthcare technology, software services, or tech-enabled analytics platforms
  • Excellent communication skills and experience working with multidisciplinary stakeholders
  • Comfortable working autonomously and capable of delivering high-quality work independently
  • Previous exposure to remote-first work environments; adaptable and collaborative

Desirable Skills and Experience

Preferred additional skills include:
  • Experience with other cloud platforms such as AWS, Azure, or GCP.
  • Knowledge of containerization tools like Docker and orchestration platforms such as Kubernetes.
  • Familiarity with machine learning pipelines and collaboration with data science teams.
  • Understanding of healthcare data standards (e.g., HL7, FHIR) and data privacy regulations like HIPAA or GDPR.
  • Participation in open-source data engineering projects or community involvement.

Why Join Moventi?

  • Continuous opportunities for professional growth and ongoing learning within a multidisciplinary environment.
  • Flexible remote work options, enabling you to balance work and personal life effectively.
  • Participation in highly challenging projects that encourage innovation and skill development.
  • A positive and collaborative company culture based on transparency, commitment, and innovative thinking.
  • Central office location with modern facilities including parking and recreational areas, ideal for hybrid work if preferred.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Ingeniero de Data Pipelines Cloud
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Data Analysis Excel
En BC Tecnología, una consultora especializada en servicios IT con más de 6 años de experiencia, diseñamos y ejecutamos soluciones tecnológicas a medida para clientes en sectores como financieros, seguros, retail y gobierno. Nuestro enfoque está en metodologías ágiles, cambio organizacional y desarrollo de productos innovadores. Como parte del equipo de datos, trabajarás en proyectos de modernización y optimización de ductos de datos en entornos cloud, colaborando con áreas de infraestructura y desarrollo para potenciar la gestión de datos en importantes clientes del área retail y otros sectores clave.

Apply without intermediaries through Get on Board.

Responsabilidades principales

Entre las funciones principales del rol se incluyen:
  • Diseñar, construir y mantener pipelines de datos eficientes y escalables en entornos cloud, preferentemente en AWS.
  • Colaborar en la ingesta, transformación y carga de datos provenientes de diversas fuentes internas y externas.
  • Trabajar junto a un líder técnico en iniciativas de modernización y mejora continua de los sistemas de datos.
  • Implementar soluciones técnicas alineadas con los lineamientos de arquitectura y estrategia de datos corporativa.
  • Interpretar y traducir requerimientos de negocio relacionados con datos en conjunto con analistas y desarrolladores para ofrecer soluciones que aporten valor.
  • Apoyar en la documentación técnica y seguimiento de buenas prácticas en desarrollo de pipelines.

Requisitos y experiencia requerida

Buscamos un profesional con experiencia práctica en proyectos relacionados con datos y pipelines en ambientes cloud, con capacidad para integrarse rápidamente a equipos multidisciplinarios. Es fundamental contar con:
  • Experiencia íntima con herramientas de visualización de datos, destacando Power BI y Metabase, que permitan el análisis y presentación clara de información.
  • Manejo intermedio de Excel para análisis de datos y manipulación básica.
  • Fuerte manejo en computación en la nube, idealmente con AWS, y servicios como Glue, Airflow y Redshift para orquestación, transformación y almacenamiento de datos.
  • Dominio de bases de datos SQL y/o NoSQL, para consulta, modelamiento y optimización del acceso a datos.
  • Conocimientos en lenguajes de programación como Python o Java, utilizados para desarrollo y automatización en la ingeniería de datos.
  • Experiencia previa en el rubro retail, entendiendo sus particularidades y necesidades en el manejo de datos.
  • Disponibilidad para trabajar en modalidad híbrida desde Chile, con flexibilidad para combinar trabajo remoto y presencial.
Valoramos habilidades blandas como colaboración, comunicación efectiva, orientación al detalle y capacidad de adaptación a entornos dinámicos y multidisciplinarios.

Habilidades y conocimientos deseables

Además, será altamente valorado que el candidato cuente con:
  • Experiencia en otras plataformas cloud además de AWS, como Azure o Google Cloud.
  • Conocimientos en frameworks y herramientas de orquestación de flujos de datos adicionales a Airflow.
  • Capacidad para diseñar arquitecturas de datos escalables y resilientes.
  • Conocimientos en seguridad y gobernanza de datos para garantizar integridad y cumplimiento normativo.
  • Experiencia previa en metodologías ágiles y trabajo colaborativo con equipos multifuncionales.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB View Job
Gross salary $1400 - 1700 Full time
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Applications at getonbrd.com.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

Conditions

Life insurance Zerviz Technologies pays or copays life insurance for employees.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Dental insurance Zerviz Technologies pays or copays dental insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Senior Ingeniero de Datos
  • Devsu
  • Quito (Hybrid)
Java Python SQL NoSQL

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de US y Latinoamérica en diferentes industrias como banca y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales.

Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. Se valorará la capacidad de liderar y colaborar con equipos multidisciplinarios para acelerar el cumplimiento de objetivos.

Es una posición híbrida en la ciudad de Quito-Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Apply without intermediaries from Get on Board.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.

Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB View Job
$$$ Full time
Arquitecto de Datos
  • Devsu
  • Quito (In-office)
Python SQL Business Intelligence Virtualization

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de US y Latinoamérica en diferentes industrias como banca y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales.

Buscamos un profesional con sólida experiencia técnica y capacidad estratégica para liderar la evolución y arquitectura de productos digitales en el sector financiero.

Buscamos un Arquitecto de Datos con sólida experiencia en la plataforma Stratio y ecosistemas de datos sobre (AWS).

Es una posición remota si vives en Latam y presencial si vives en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Apply directly from Get on Board.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en NRT y por lotes utilizando Spark.
  • Diseñar y evolucionar arquitecturas de datos utilizando Stratio Data Fabric.
  • Construir y optimizar pipelines de datos en AWS: ingestión, transformación, almacenamiento y exposición.
  • Implementar políticas de seguridad, calidad y gobierno de datos.
  • Colaborar con equipos de desarrollo, analítica y DevOps para garantizar la integración continua y despliegues eficientes.
  • Documentar arquitecturas, modelos de datos y decisiones técnicas clave.
  • Liderar la toma de decisiones sobre herramientas, patrones y estándares tecnológicos.

Requerimientos del cargo

  • 5+ años de experiencia en arquitectura de datos.
  • Experiencia real con Stratio Platform: configuración, virtualización, gobierno de datos, etc.
  • Experiencia sólida en AWS: S3, Glue, Redshift, Lambda, Athena, Kinesis, EMR, IAM.
  • Conocimiento en arquitecturas orientadas a eventos, datos en tiempo real, Data Lakes y Lake Houses.
  • Experiencia con Terraform o CloudFormation para infraestructura como código.
  • Conocimiento de lenguajes como Python, SQL y frameworks tipo Spark / PySpark.

Deseables:

  • Certificaciones AWS (ej. Data Analytics, Solutions Architect).
  • Experiencia previa en banca, seguros o telcos.
  • Experiencia en herramientas de visualización (Power BI, Looker, Tableau).

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB View Job
Gross salary $3400 - 4400 Full time
Senior Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Ruby Python SQL
Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de seleccionar a los solicitantes de empleo. Fundada en 2014, Checkr pone la tecnología moderna impulsada por el aprendizaje automático en manos de los equipos de contratación, ayudando a contratar a grandes nuevas personas con una experiencia que es rápida, suave y segura. Checkr tiene más de 100.000 clientes, entre ellos DoorDash, Coinbase, Lyft, Instacart y Airtable.
Buscamos un Ingeniero de Datos Senior con experiencia para que se incorpore a nuestro equipo de operaciones de datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene los sistemas que realizan verificaciones de antecedentes precisas y eficientes.
Como ingeniero de datos sénior del equipo de operaciones de datos, trabajarás en proyectos de gran impacto que contribuyen directamente a la funcionalidad principal de los servicios de verificación de antecedentes de Checkr.

Apply to this job at getonbrd.com.

Responsabilidades del cargo

  • Crear y mantener canales de datos y conjuntos de datos fundamentales para satisfacer las necesidades del producto y del negocio.
  • Diseñar y construir arquitecturas de bases de datos con datos masivos y complejos, equilibrando la carga computacional y el coste.
  • Desarrollar auditorías para la calidad de los datos a gran escala, implementando alertas según sea necesario.
  • Crear paneles de control y informes escalables para apoyar los objetivos empresariales y permitir la toma de decisiones basada en datos.
  • Solucionar y resolver problemas complejos en entornos de producción.
  • Trabajar en estrecha colaboración con los gestores de productos y otras partes interesadas para definir e implementar nuevas funciones.

Calificaciones y Requisitos del cargo

  • Más de 5 años de experiencia en desarrollo de software full-stack.
  • Gran dominio de al menos uno de los siguientes lenguajes: Ruby (preferible), Python o Golang.
  • Experiencia en el procesamiento de datos a gran escala, tanto por lotes como en streaming.
  • Sólidos conocimientos de sistemas de bases de datos, tanto SQL como NoSQL.
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake, AWS Glue, Athena y S3.
  • Experiencia con ETL/ELT, procesamiento de datos en streaming y por lotes a gran escala.
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Experiencia con arquitectura de microservicios y API RESTful.
  • Fuertes habilidades para resolver problemas y atención al detalle.
  • Habilidades avanzadas de comunicación en inglés y capacidad para trabajar en un entorno colaborativo.

Competencias Deseables

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
Gross salary $3000 - 3500 Full time
Data Scientist – LLM Expert
  • Niuro
Python Virtualization Amazon Web Services Azure
Niuro collaborates with leading U.S. companies by connecting them with elite, autonomous, high-performance tech teams worldwide. Through innovative solutions, Niuro simplifies global talent acquisition ensuring maximum efficiency and quality. Our teams focus on challenging projects involving advanced industrial data, where continuous professional growth and leadership development are core values. By handling the administrative side—hiring, payments, training—Niuro empowers specialists to deliver exceptional results while advancing their careers in a collaborative and stimulating environment.

Job source: getonbrd.com.

About the Role

At Niuro, we are seeking a Data Scientist with expertise in Large Language Models (LLMs) to become an integral part of our engineering team. Your role will involve building intelligent agents that seamlessly integrate data, tools, and various models to produce measurable and impactful outcomes.
You will own the entire development loop: from framing complex problems and defining success criteria to developing, deploying, and maintaining efficient, trustworthy, and maintainable AI-powered solutions over time. Your work will be essential in advancing our data science capabilities and delivering reliable, production-grade features that leverage AI and LLM technologies.

Requirements

  • Solid, hands-on experience in classical Data Science techniques, including modeling, feature engineering, statistics, and experimentation.
  • Strong proficiency in Python programming is mandatory.
  • Proven production experience shipping AI/ML or LLM-powered features to live environments.
  • Experience working with at least one major cloud platform such as AWS, Azure, or Google Cloud Platform (GCP).
  • Professional proficiency in English to effectively communicate in a global team.
  • Systems thinking with the ability to understand data flows, failure modes, and optimize trade-offs related to cost, latency, and throughput.
  • Commitment to writing clean, testable, and maintainable code that meets industry best practices.
  • A strong respect for privacy, security, and operational reliability in AI systems.

Nice to Have

  • Experience building or maintaining Retrieval-Augmented Generation (RAG) systems, enhancing LLM responses with external knowledge bases.
  • Familiarity with tool/function calling mechanisms and Multi-Component Processing (MCP)-based integrations to extend AI capabilities.

Why Join Niuro?

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and foster professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere in the world. We invest in your career development through continuous training programs and leadership opportunities, ensuring that you grow and succeed alongside us.
Following successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to building lasting relationships with team members.
Join Niuro to be part of a global community committed to technological excellence, supported by a strong administrative infrastructure that lets you focus fully on delivering impactful work.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Arquitecto Datos y Aplicaciones
  • CMPC
  • Santiago (Hybrid)
Java Analytics SAP Web server

Responsable de definir e implementar los principios de la arquitectura de datos, el gobierno, las arquitecturas de referencia, frameworks, los modelos de datos empresariales y promover su adopción en toda la organización a través de diferentes canales de comunicación, además de impulsar el gobierno de aplicaciones en la compañía:

  • Liderar la definición, implementación y evolución de la arquitectura de datos de CMPC bajo el marco de gobierno y digitalización del Negocio con foco en las soluciones self service BI basado en arquitectura Cloud GCP, fomentando la innovación continua y la adopción de tecnologías emergentes para optimizar el valor de los datos.
  • Promover la convergencia de los dominios de datos de CMPC en las diversas soluciones de BI y Datos, aportando en metodología y herramientas para la gestión del ciclo de vida del dato con calidad, trazabilidad y seguridad, asegurando la agilidad y adaptabilidad de la arquitectura a los cambios del negocio.

Job opportunity published on getonbrd.com.

Funciones del cargo

  • Liderar la arquitectura y la evolución de la plataforma de datos (Datalake) y todas sus integraciones.
  • Definición de arquitectura de datos, gobernanza, estándares, mejores prácticas y su implementación.
  • Proporcionar evaluación y estimación de soluciones de Línea de Negocios.
  • Participar en proyectos de datos como arquitecto principal de datos asumiendo la responsabilidad del diseño de la solución.
  • Asegurar la adecuada documentación y catálogos de los diseños de alto nivel en las herramientas definidas para tal fin.
  • Eficientar las arquitecturas vigentes para optimizar recursos (FinOps).
  • Gestionar el inventario de aplicaciones: Incluye la revisión periódica, identificación de redundancias y propuesta de racionalización.
  • Mantener y divulgar el stack de datos y aplicaciones.
  • Impulsar el desarrollo y aplicación del gobierno de aplicaciones.

Requerimientos del cargo

Formación:

  • Ingeniero Civil en Computación, Informática o carreras afines.
  • Deseable diplomado o formaciones especiales en el ámbito de Arquitectura de datos (Business Intelligence / Ciencia de Datos / Gobierno de Datos o Analítica de Datos)

Experiencia:

  • 3 años o más de experiencia profesional brindando soluciones con datos en entornos de nube e híbridas (on-premises + nube).
  • Experiencia en definición arquitecturas de datos en Google Cloud Platform.
  • Experiencia en roles de agente de cambio o liderazgo de proyectos.
  • Implementaciones de sistemas empresariales, software de clase mundial (Ej ERP SAP, CRM Salesford o WMS.)

Conocimiento específico:

  • Conocimiento y experiencia en Big Data y base de datos (relacionales y no relacionales). Excluyente
  • Conocimientos requeridos: experiencia en Cloud (GCP, AWS o Azure). Excluyente en alguno de esos
  • Conocimientos en integración de datos: extracción, modelo e integración de datos (ETL, API, microservicios, etc.) Excluyente
  • Conocimiento de metodologías de gestión ágil de proyectos. Excluyente
  • Conocimientos en BigQuery.
  • Deseable experiencia en SAP y Data service / Data Intelligence.
  • Conocimientos en soluciones para el manejo de eventos: Confluence, Apache Kafka, Event Hub.

Idioma: Inglés técnico

Condiciones

  • Contrato: Indefinido
  • Ubicación: Santiago Corporativo
  • Modalidad de trabajo: Hibrida 4x1, 4 días presencial, 1 día online

Computer provided CMPC provides a computer for your work.
Beverages and snacks CMPC offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
Gross salary $1500 - 2000 Full time
Ga4 & Google Tag Manager Developer
  • Niuro
JavaScript HTML5 Analytics Front-end
Niuro partners with leading U.S. companies by providing elite technology teams that drive innovation and deliver high-impact solutions. As part of Niuro's global network, this position involves working on advanced web analytics projects focused on optimizing digital measurement and insights to enhance business decision-making. Our projects revolve around integrating and perfecting analytics platforms to capture conversion, eCommerce, and user interaction data accurately, using cutting-edge tools and best practices.
This role is embedded in cross-functional teams including product managers, marketing strategists, and engineers, aiming to bridge technical implementation with business objectives to ensure data quality and actionable insights. By joining Niuro, you will contribute to high-profile, data-driven initiatives that empower U.S.-based clients while benefiting from a supportive environment focused on professional growth and innovation.

© Get on Board.

Role and Responsibilities

  • Lead the implementation, management, and optimization of Google Analytics 4 (GA4) and Google Tag Manager (GTM) setups to ensure precise tracking of user behavior, conversions, and eCommerce events.
  • Develop and maintain tags, triggers, and variables within GTM, ensuring they are aligned with evolving product and marketing goals.
  • Diagnose and resolve issues in front-end code related to tag implementation, including working directly with HTML, JavaScript, and the dataLayer structure.
  • Validate data quality using diagnostic and debugging tools such as Google Tag Assistant and other analytics validation utilities.
  • Collaborate closely with product teams, marketing departments, and software developers to synchronize analytics implementations with strategic business objectives.
  • Stay current with privacy regulations such as GDPR and CCPA to incorporate necessary consent management and ensure compliance in data collection processes.
  • Provide clear and effective communication to both technical and non-technical stakeholders, translating complex analytics concepts into understandable insights.

Required Skills and Experience

The ideal candidate must demonstrate strong expertise in GA4 and Google Tag Manager, with hands-on experience implementing complex tracking solutions for websites and web applications.
A solid understanding of JavaScript programming and HTML markup is essential to effectively troubleshoot and customize tracking code within GTM environments. Expertise in the structure and manipulation of the dataLayer is critical, as this is the backbone of event data collection.
Experience diagnosing and resolving tag-related problems in front-end codebases ensures the reliability and accuracy of analytics data. Candidates should be comfortable working in iterative environments, collaborating across teams and adapting implementations based on evolving product needs.
Excellent communication skills are required to liaise effectively between technical teams and marketing or business stakeholders. Conversational English proficiency is necessary due to close collaboration with U.S.-based teams.
Additionally, a keen awareness of privacy laws such as GDPR and CCPA is required to embed consent management mechanisms and support ethical, compliant data collection practices.
Soft skills such as problem-solving, attention to detail, and the ability to work independently while embracing teamwork will contribute to success in this role.

Preferred Qualifications

Experience with other analytics platforms such as Adobe Analytics, Mixpanel, or Segment adds value by broadening your digital measurement expertise.
Knowledge of tag auditing and governance tools can enhance your effectiveness in maintaining scalable and clean tagging implementations.
Familiarity with server-side tagging and advanced consent management solutions is considered a plus, reflecting a forward-thinking approach to analytics architecture and privacy compliance.
Background in A/B testing and optimization platforms, as well as understanding marketing technologies like CRM or CDP integration, will enable more comprehensive analytics execution aligned with digital marketing strategies.
Experience working in agile teams and using project management tools enhances collaboration and delivery efficiency.

What We Offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model within LATAM, offering flexibility and work-life balance while connecting you to top-tier U.S. companies.
We invest in career development through ongoing training programs in both technical skills and leadership development, ensuring continuous professional growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to building lasting relationships with our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence with a robust administrative infrastructure that allows you to focus on what you do best.

APPLY VIA WEB View Job
Gross salary $2000 - 2300 Full time
Ingeniero de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Linux Virtualization
En BC Tecnología, una consultora especializada en servicios IT con más de 6 años de experiencia, diseñamos y ejecutamos soluciones tecnológicas para clientes de sectores como servicios financieros, seguros, retail y gobierno. A través de un enfoque ágil y centrado en el cliente, formamos equipos de trabajo dedicados en áreas como infraestructura tecnológica, desarrollo de software y unidades de negocio. En este proyecto de 6 meses, se integrará un Ingeniero de Datos AWS para trabajar en la manipulación de grandes volúmenes de información aprovechando la nube y tecnologías modernas, contribuyendo a optimizar procesos y aportar valor mediante datos escalables.

Apply to this posting directly on Get on Board.

Responsabilidades y Tareas

  • Desarrollar y mantener pipelines de datos escalables y eficientes en entornos AWS.
  • Manipular grandes volúmenes de datos utilizando Python y SQL, asegurando calidad y rendimiento.
  • Ejecutar procesos ETL en la nube utilizando servicios AWS como EC2, S3, Glue, Lambda, Athena y Redshift.
  • Modelar datos y aplicar técnicas de exploración para facilitar el análisis y la toma de decisiones.
  • Optimizar procesos de ingesta y transformación de datos para maximizar valor y eficiencia.
  • Colaborar con equipos multidisciplinarios para entender necesidades y desarrollar soluciones técnicas alineadas a los objetivos del negocio.
  • Mantenimiento y operación bajo sistemas Linux para soporte a las soluciones implementadas.

Requisitos y Perfil

Buscamos un Ingeniero de Datos con 2 a 3 años de experiencia comprobable en roles similares, especialmente trabajando en entornos cloud, preferentemente AWS. Es indispensable un manejo avanzado de Python, SQL y Linux, así como experiencia aplicada en servicios clave de AWS como EC2, S3, Glue, Lambda, Athena y Redshift. El candidato ideal debe tener sólidos conocimientos en procesos ETL en la nube, modelamiento de datos y técnicas exploratorias que permitan optimizar el flujo y la calidad de los datos.
Valoramos perfiles analíticos, proactivos y orientados a la mejora continua que disfruten construyendo pipelines robustos y aplicando buenas prácticas en gestión de datos. Se requiere capacidad para trabajar en modalidad híbrida, así como habilidades comunicativas efectivas para colaborar con equipos técnicos y de negocio.
Se considera como deseable experiencia previa con COBOL SQL en entornos Mainframe, ampliando así su versatilidad técnica.

Deseables

Experiencia en COBOL SQL sobre sistemas Mainframe, que permita complementar las capacidades en entornos legacy.
Conocimientos adicionales en herramientas de automatización y monitoreo de procesos ETL.
Familiaridad con metodologías ágiles y herramientas colaborativas para integración en equipos multidisciplinarios.
Capacidad para documentar procesos y generarreports técnicos orientados a stakeholders.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2400 - 2800 Full time
Data Engineer
  • ARKHO
Python Analytics Virtualization Amazon Web Services

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Official job site: Get on Board.

🎯 Objetivo del Rol

Liderar y ejecutar el desarrollo de pipelines de datos en proyectos de analytics, con una visión integral de arquitectura de datos end to end. Se espera que aplique su experiencia técnica para fomentar la mejora continua, el cumplimiento de objetivos y la entrega de productos tecnológicos de alta calidad. Será un referente técnico dentro del equipo, aportando conocimientos en herramientas, lenguajes e infraestructura, y participando activamente en la generación de soluciones robustas y escalables.

Funciones Principales:

  • Colaborar estrechamente con el líder de equipo y el equipo de implementación, entregando visibilidad técnica del avance de las iniciativas.
  • Apoyar en la definición, estimación y planificación de tareas para productos analíticos bajo metodologías ágiles.
  • Liderar la gobernanza técnica de la solución junto al cliente, participando en decisiones clave.
  • Diseñar e implementar arquitecturas de soluciones de datos en la nube de forma colaborativa.
  • Participar en el modelado de datos y desarrollo de modelos analíticos corporativos.
  • Investigar y profundizar en tecnologías necesarias para alcanzar los objetivos del proyecto.

🏹 Perfil del archer

En nuestra compañía valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:

  • Al menos 3 años en proyectos de analítica de datos.
  • Dominio avanzado de al menos un lenguaje de programación, preferiblemente Python.
  • Sólidos conocimientos en herramientas y servicios de datos en AWS (Glue, Lambda, S3, Athena, Redshift, Step Functions).
  • Experiencia en diseño de pipelines de datos y orquestación (por ejemplo, Airflow, Step Functions).
  • Familiaridad con arquitecturas modernas de datos como Data Lakes, Data Warehouses o Lakehouses.
  • Experiencia o conocimientos en modelado de datos utilizando enfoques como modelo dimensional, estrella y copo de nieve.

🌟 Beneficios del Archer

En ARKHO fomentamos una cultura de aprendizaje continuo, impulsamos la innovación tecnológica y promovemos un entorno de trabajo flexible, inclusivo y respetuoso, que valora tanto el desarrollo profesional como el bienestar personal.

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)
💰 Aguinaldos
🏥 Seguro complementario de salud (solo Chile)
🧘‍♀️ ARKHO Open Doors

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage ARKHO pays or copays health insurance for employees.
Computer provided ARKHO provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
Gross salary $800 - 1200 Full time
Data Engineer
  • Guinea Mobile SAC (Cuy Móvil)
Java Python PostgreSQL SQL

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer para conformar el equipo de TEC.

Apply only from getonbrd.com.

Funciones del cargo

Diseño de Infraestructura de Datos Escalable:

  • Crear sistemas robustos que soporten petabytes de datos con alta disponibilidad y rendimiento.

Automatización de Procesos de Integración:

  • Diseñar y gestionar pipelines automatizados para integración y limpieza de datos.

Colaboración con Analistas y Científicos de Datos:

  • Proveer datasets limpios, modelados y fácilmente accesibles.

Optimización de :

  • Identificar cuellos de botella en flujos de datos y aplicar soluciones para mejorar tiempos de respuesta.

Monitoreo de Flujos de Datos:

  • Implementar herramientas de monitoreo y alertas para garantizar la calidad y consistencia de los datos en tiempo real.

Requerimientos del cargo

  • Procesamiento de Datos:
    • Experiencia en frameworks como Apache Spark, Hadoop o Google Dataflow para procesamiento en grandes volúmenes de datos.
    • Conocimiento avanzado de batch processing y stream processing.
  • Bases de Datos y Almacenamiento:
    • Manejo de bases de datos relacionales (Oracle, PostgreSQL o SQL Server ) y NoSQL (MongoDB, DynamoDB, Cassandra).
    • Experiencia en la configuración y gestión servicios data warehouses como Snowflake, Redshift o BigQuery.
  • ETL/ELT:
    • Experiencia en la construcción y optimización de pipelines de datos usando herramientas como Apache Airflow, dbt, Talend o Luigi.
  • Programación:
    • Dominio de lenguajes como Python, Scala o Java, enfocados en la manipulación de datos.
    • Habilidades en scripting para automatización y manejo de grandes datasets.
  • Cloud Computing:
    • Familiaridad con servicios de datos en la nube como AWS Glue, Azure Data Factory o Google Cloud Dataflow.
    • Conocimientos en almacenamiento y gestión de datos en la nube: Amazon S3, Google Cloud Storage o Azure Blob Storage.
  • Calidad y Seguridad de Datos:
    • Implementación de procesos de data profiling, limpieza y validación de datos.
    • Experiencia en garantizar el cumplimiento de normativas como GDPR, HIPAA o similares.
  • Optimización de Consultas y Modelado de Datos Dimensionales:
    • Diseño de modelos de datos eficientes para análisis y consumo.
    • Desarrollo y optimización de queries SQL (CTES, Joins, Subqueries, etc) y otras herramientas.
  • Detallista: Capacidad para identificar inconsistencias y cuidar la calidad de los datos en cada etapa del proceso.
  • Proactivo/a: Capacidad para anticiparse a problemas, proponer mejoras y tomar iniciativa sin necesidad de esperar instrucciones.
  • Colaborativo/a: Comodidad para trabajar junto a analistas, desarrolladores o científicos de datos, fomentando el aprendizaje mutuo.
  • Flexible en la Colaboración: Valoramos a quienes se involucran donde pueden aportar, más allá de lo que indica su rol. Creemos que los equipos funcionan mejor cuando cada persona está dispuesta a sumar donde más se le necesita.
  • Enlace a repositorio en GitHub, GitLab o Bitbucket.
  • Certificaciones relevantes como Google Cloud Professional Data Engineer, AWS Certified Data Analytics, o similares.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB View Job
$$$ Full time
Data Scientist
  • ARKHO
  • Bogotá (Hybrid)
Python SQL Virtualization Amazon Web Services
ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!
🎯 Objetivo del Rol

Transformar datos complejos en soluciones concretas. Su misión principal será entender los desafíos del negocio, analizar la información disponible y diseñar modelos que realmente generen impacto.

This job is published by getonbrd.com.

Funciones Principales

  • Entender el contexto del cliente: qué quiere lograr, cuáles son sus indicadores clave y qué datos tiene disponibles.
  • Aplicar técnicas de análisis estadístico, machine learning y deep learning para resolver problemas específicos.
  • Diseñar y poner en marcha soluciones basadas en inteligencia artificial, incluyendo el uso de Large Language Models (LLMs) y embeddings.
  • Acompañar al cliente en la toma de decisiones, explicando alternativas de solución de forma clara y práctica.
  • Trabajar en entornos colaborativos y ágiles, con foco en soluciones escalables, seguras y robustas en la nube (principalmente con herramientas de AWS como SageMaker, S3, Lambda y Bedrock).
  • Colaborar activamente con el equipo, aportando ideas y compartiendo buenas prácticas.

Perfil del Archer

Buscamos un profesional proactivo, autónomo y con iniciativa, apasionado por resolver problemas complejos y que disfrute trabajar en equipo. Se valoran especialmente las ganas de aprender y desarrollar nuevas habilidades.
Requisitos técnicos y experiencia:
  • Mínimo 3 años de experiencia en roles similares enfocados en machine learning e inteligencia artificial.
  • Conocimiento sólido en técnicas de machine learning como clustering, análisis de componentes principales (PCA), regresión logística, entre otras.
  • Experiencia en desarrollo de modelos utilizando deep learning y en particular con Large Language Models y embeddings.
  • Dominio avanzado de Python y SQL.
  • Experiencia con librerías de análisis y machine learning como Pandas, Scikit-learn, Numpy y Matplotlib.
  • Familiaridad con servicios en la nube, especialmente AWS (SageMaker, S3, Lambda y Bedrock).
  • Título profesional en Ingeniería de Sistemas, Ingeniería Matemática o carreras afines.
  • Inglés de nivel intermedio es deseable, pero no obligatorio.

Beneficios

En ARKHO fomentamos una cultura de aprendizaje continuo, innovación tecnológica y un ambiente de trabajo flexible, inclusivo y respetuoso, que apoya tanto el desarrollo profesional como el bienestar personal.
  • 📆 Día administrativo semestral durante el primer año.
  • 🏖️ Week off: 5 días extra de vacaciones.
  • 🎉 Celebración de cumpleaños.
  • 📚 Ruta de entrenamiento y desarrollo profesional.
  • ☁️ Certificaciones AWS patrocinadas.
  • 🏡 Trabajo flexible, modalidad híbrida con opción a remoto.
  • 💍 Regalo y 5 días hábiles libres por matrimonio.
  • 👶 Regalos por nacimiento de hijos.
  • ✏️ Kit escolar.
  • 🤱 Beneficio de paternidad.
  • ❤️ Acceso a Bonda, plataforma de descuentos y bienestar.
  • 💰 Aguinaldos.
  • 🧘‍♀️ Programa ARKHO Open Doors para bienestar integral.

APPLY VIA WEB View Job
Gross salary $3000 - 4000 Full time
Ingeniero de Datos Senior
  • foris.ai
Artificial Intelligence English Data Engineer Continual improvement process

Somos una empresa líder en Latinoamérica que ofrece soluciones cloud basadas en Inteligencia Artificial y servicios de consultoría para optimizar procesos críticos en la Educación Superior. Nuestro objetivo es transformar la experiencia digital de alumnos, docentes y staff académico mediante una suite de productos que automatizan más del 50% de las tareas manuales, optimizan hasta un 25% los costos y contribuyen a la reducción de la deserción estudiantil.

Contamos con más de 65 instituciones educativas clientes en 10 países, alcanzando a un millón de estudiantes. Buscamos expandir nuestra tecnología disruptiva a nuevos mercados internacionales, diseñando sistemas escalables capaces de soportar un crecimiento importante y diferentes ecosistemas complejos.

Somos un equipo multicultural y multidisciplinario que combina capacidades en ingeniería, matemáticas, desarrollo, diseño y consultoría, enfocados en llevar al sector EdTech a un nuevo nivel usando inteligencia artificial avanzada.

Job source: getonbrd.com.

¿En qué consistirá tu trabajo?

  • Ser experto funcional de nuestra suite de soluciones, comprendiendo y dominando a fondo la lógica y arquitectura de cada aplicación.
  • Liderar la implementación y puesta en marcha de nuestros productos y sus integraciones para asegurar despliegues fluidos y exitosos en nuestros clientes.
  • Trabajar con consultas SQL avanzadas para explotar, transformar y analizar grandes volúmenes de datos con rigor y eficiencia.
  • Diseñar, desarrollar e implementar procesos ETL robustos para manejar grandes flujos de información alineados con las necesidades de las universidades y Foris.
  • Aplicar modelado, análisis y automatización de datos utilizando Python de forma estructurada y escalable.
  • Colaborar estrechamente con equipos internos multidisciplinarios y con clientes externos para diseñar soluciones técnicas innovadoras que aporten valor real al negocio.
  • Documentar detalladamente cada solución para garantizar su trazabilidad, mantenibilidad y calidad a largo plazo.

Stack de herramientas y tecnologías :
Herramientas:

  • Athena
  • Glue data catalog
  • Amazon S3
  • Cloudwatch AWS
  • IAM AWS
  • AWS CLI
  • Postman
  • JSON / RESTful APIs

Lenguajes

  • TrinoSql
  • MySQL
  • SparkSql
  • PySpark
  • Python
  • PostgresSql
  • YAML

Perfil del cargo

Buscamos profesionales con formación técnica rigurosa en Ingeniería de Sistemas, Matemáticas, Inteligencia Artificial, Ciencia de Datos o carreras afines. Es indispensable haber complementado cualquier formación que no sea estrictamente técnico-científica con educación y experiencia práctica.

El candidato ideal cuenta con al menos 5 años de experiencia profesional consolidada y mínima experiencia de 3 años en consultoría tecnológica y/o procesamiento y análisis avanzado de datos. Este puesto no es para perfiles juniors ni para quienes buscan un rol intermedio; está destinado a quienes desean escalar profesionalmente resolviendo desafíos complejos y reales.

Es fundamental poseer un entendimiento profundo tanto del negocio educativo como del ecosistema de datos y tecnología que soporta nuestras soluciones. Debe ser capaz de identificar ineficiencias, proponer soluciones innovadoras y ejecutar sin necesidad de supervisión constante.

Además, el rol requiere excelentes habilidades de comunicación, particularmente en redacción y verificación de información, tanto en español como en inglés, debido a la interacción con herramientas de Inteligencia Artificial generativa y de optimización. Se valoran especialmente competencias en generación y curaduría de prompts para IA.

Buscamos una persona proactiva, orientada a la mejora continua, capaz de transformar procesos, productos y flujos de trabajo mediante modelos de datos, visualización y automatización, que aporte prácticas y referencias que eleven el estándar técnico del equipo desde el primer día.

Competencias y conocimientos deseables

Se valorará experiencia previa en ambientes EdTech o en la educación superior, conocimiento avanzado en plataformas de nube, especialmente en arquitecturas escalables para grandes volúmenes de datos y familiaridad con herramientas de IA aplicadas a la optimización operacional.

Habilidades en manejo de metodologías ágiles y coordinación de equipos multidisciplinarios serán un plus para facilitar la integración y entrega de soluciones.

Además, se considerarán positivamente conocimientos en visualización avanzada de datos, manejo de tecnologías de integración de datos en tiempo real, y experiencia en diseño de arquitecturas data-driven.

Beneficios y cultura organizacional

En Foris valoramos la diversidad y el bienestar de nuestros colaboradores. Ofrecemos horarios flexibles que permiten compatibilizar trabajo con otras actividades, además de permitir días libres para trámites administrativos, cumpleaños y festividades importantes.

Contamos con jornadas reducidas cada quince días los viernes, iniciando a las 9:00 y finalizando a las 15:00 hrs, junto con un día completo de vacaciones canjeable para celebrar tu cumpleaños.

Nuestra cultura promueve un ambiente multicultural e inclusivo, con un equipo equilibrado en género y conformado por profesionales de diversas nacionalidades. No exigimos códigos de vestimenta para el día a día, salvo eventos con clientes.

Organizamos actividades de integración, viajes y retiros corporativos para fortalecer el espíritu de equipo en entornos distendidos y agradables.

El trabajo será hibrido en Bogotá, Colombia y remoto desde Chile.

Internal talks foris.ai offers space for internal talks or presentations during working hours.
Company retreats Team-building activities outside the premises.
Computer repairs foris.ai covers some computer repair expenses.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
Gross salary $2300 - 2500 Full time
Analista Power BI
  • BC Tecnología
  • Santiago (Hybrid)
Excel SQL Business Intelligence Virtualization
En BC Tecnología somos una consultora de Servicios IT con amplia experiencia en consultoría, desarrollo de proyectos, outsourcing y selección de profesionales. Creamos equipos de trabajo ágiles en áreas de Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio, para clientes de sectores financieros, seguros, retail y gobierno. En este proyecto estratégico de 6 meses, nos enfocamos en la generación de dashboards y soluciones analíticas mediante Power BI, que permitan apoyar la toma de decisiones basada en datos dentro de la organización y sus áreas internas.

Apply directly on Get on Board.

Responsabilidades

  • Diseñar y mantener dashboards e informes utilizando Power BI.
  • Analizar datos para identificar oportunidades de mejora y resolver problemas de negocio.
  • Levantar requerimientos con áreas internas y proponer soluciones analíticas adecuadas.
  • Promover la alfabetización digital y el uso efectivo de herramientas analíticas en la organización.
  • Aplicar buenas prácticas en modelamiento de datos, visualización y asegurar la calidad de la información.

Requisitos

  • Dominio avanzado de Power BI, incluyendo DAX, modelado y visualización de datos.
  • Conocimientos sólidos en SQL y Excel, además de experiencia con herramientas como Tableau.
  • Deseable experiencia en plataformas cloud como BigQuery, AWS Redshift u otras similares.
  • Excelentes habilidades de comunicación y capacidad de análisis orientada al cliente interno.

Deseable

Se valorará experiencia adicional en manejo de plataformas en la nube para gestión y análisis de datos que complementen el trabajo en Power BI. También es deseable conocimiento en procesos de transformación digital y en promover el uso de analítica avanzada en diferentes áreas de la organización.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2000 - 3000 Full time
Data Engineer (AWS Data Lakes)
  • Niuro
Python Git SQL Virtualization
Niuro is a leading global technology talent provider specializing in connecting elite tech teams with top-tier U.S.-based companies. Our mission is to simplify global talent acquisition and maximize project quality through innovative and efficient solutions. We empower autonomous, high-performance teams by handling all administrative aspects such as hiring, payments, and training, enabling our professionals to focus fully on delivering exceptional results. Within this context, we collaborate on impactful industrial data projects with a strong emphasis on innovation and technical excellence. Our teams contribute to challenging projects that leverage cutting-edge data engineering techniques, particularly in cloud-based environments, ensuring both professional growth and meaningful contributions to the client’s success.

Exclusive to Get on Board.

Role and Responsibilities

As a Data Engineer specializing in AWS Data Lakes, you will play a pivotal role in architecting, building, and managing scalable and robust data lake solutions on the AWS cloud platform. Your primary responsibilities will include designing and implementing data ingestion pipelines, optimizing data transformation processes, and ensuring data quality and integrity to power analytics and business intelligence initiatives.
Key tasks include:
  • Designing and maintaining data lakes using AWS services such as S3, Glue, Athena, Lambda, and Step Functions.
  • Developing and optimizing data processing workflows with PySpark and Python to transform raw data into actionable datasets.
  • Writing efficient SQL queries for data extraction and manipulation.
  • Collaborating closely with U.S.-based cross-functional teams to understand requirements and deliver solutions that align with business objectives.
  • Monitoring, troubleshooting, and improving the performance and reliability of data platforms.
You will be part of a remote, agile, and collaborative environment where continuous improvement and innovation are encouraged.

Skills and Experience Required

We are looking for a motivated Data Engineer with solid experience building and managing data lakes on AWS. The ideal candidate will demonstrate proficiency with core AWS services including S3, Glue, Athena, Lambda, and Step Functions, and have strong programming skills in Python and SQL for processing and transforming data.
Essential qualifications include:
  • Hands-on experience implementing scalable data lake architectures on AWS.
  • Competence with PySpark for distributed data processing.
  • Strong Python programming skills with the ability to create clean, maintainable code.
  • Solid SQL skills for complex queries and data manipulation.
  • Effective communication skills in conversational English to collaborate with teams and stakeholders based in the United States.
Soft skills necessary for success include a proactive attitude, problem-solving mindset, strong attention to detail, and the ability to work independently within a remote work context.

Additional Skills and Technologies (Nice to Have)

While not mandatory, the following skills will enhance your fit for this role and our projects:
  • Experience with backend frameworks and libraries such as FastAPI, Pydantic, and Gunicorn.
  • Familiarity with AWS SDKs such as Boto3 for AWS service integration.
  • Knowledge of web technologies including Aestiva HTML/OS.
  • Containerization and DevOps skills, particularly using Docker.
  • Experience with continuous integration and deployment tools like TeamCity.
  • Version control expertise using GitHub or Gitea.

What We Offer

Joining Niuro means becoming part of an innovative, supportive, and high-performing global community focused on technological excellence. We offer a fully remote position allowing you to work from anywhere in the LATAM region, providing flexibility and work-life balance.
We are committed to your continuous professional growth through ongoing technical and soft skills training, leadership development programs, and opportunities to work on impactful and technically challenging industrial data projects.
Niuro also offers a strong administrative support system, so you can focus entirely on your work without distractions related to hiring, payments, or HR processes.
We maintain a long-term vision for our collaborations, with the possibility of transitioning to stable full-time employment after the initial contract, reflecting our dedication to building lasting relationships with our team members.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $1400 - 1900 Full time
Consultor Data Engineer
  • MAS Analytics
  • Santiago (Hybrid)
SQL Azure ETL Power BI

MAS Analytics es una consultora de datos e inteligencia artificail que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día tenemos muchos proyectos con clientes de muchos rubros distintos y necesitamos ingeniero/as apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

Apply only from getonbrd.com.

Funciones del cargo

Estamos buscando ingenier@s que sepan trabajar con datos, mover datos, interpretar datos y buscar datos. El cargo está orientado hacia la ingeniería de datos utilizando herramienta de ETL, Bases de datos y herramientas de reportería.

Si no manejas alguno de estos conceptos, no te preocupes, nos importa que tengas las bases para poder aprender y desafiarte día a día.

Tendrás que realizar las siguientes tareas (entre otras):

  1. Reuniones de negocio con clientes
  2. Creación de queries SQL
  3. Creación de pipelines ETL (on premise y cloud)
  4. Creación de visualizaciones en herramientas de BI

El éxito de tu trabajo se evaluará en el nivel de satisfacción de los modelos entregados a los clientes y en el cumplimiento de plazos.

Trabajarás dentro de los equipos de desarrollo de MAS Analytics teniendo reuniones de avance semanal con los clientes y otros miembros del equipo de MAS Analytics.

Requerimientos del cargo

Al ser consultoría en tecnología, necesitamos que tengas habilidades técnicas y habilidades blandas. Se privilegiarán perfiles de ingeniería civil TI o Computación.
En cuanto a las habilidades técnicas, se espera que puedas trabajar con las siguientes herramientas:
  1. Queries SQL (CRUD)
  2. Procesamiento: Dataflow (GCP, Azure), Lambda, Glue (AWS)
  3. Visualizaciones: Qlik, Tableau, Power BI
  4. Modelamiento de datos: modelos dimensionales OLAP
Con respecto a las habilidades blandas, necesitamos que estés preparada/o para:
  1. Llevar comunicación con los clientes
  2. Levantar requerimientos
  3. Trabajo en equipo
  4. Proactividad
  5. Pensamiento analítico

Opcionales

Conocimientos en herramientas Cloud (GCP, AWS, Azure)

Algunos beneficios

  1. Horario flexible
  2. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  3. Ambiente laboral joven
  4. Viernes medio día
  5. Vacaciones extra 🌞🏝
  6. Celebraciones de cumpleaños 🎁🎊
  7. Actividades de empresa 🍻⚽
  8. Y muchos más que podrás conocer…

Wellness program MAS Analytics offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Education stipend MAS Analytics covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Ingeniero Cloud
  • Zerviz Technologies
  • Santiago (In-office)
Linux Virtualization Amazon Web Services Azure

En ZerviZ somos una empresa innovadora especializada en consultoría y desarrollo de productos digitales enfocados en la experiencia del cliente (Customer Experience, CX) para toda América Latina. Desde 2017, hemos impulsado más de 150 proyectos en 16 países, apoyando a clientes en sectores diversos para optimizar procesos, mejorar la atención y servicio al cliente mediante desarrollos a medida y soluciones tecnológicas flexibles y escalables.

Nuestro equipo participa activamente en proyectos que involucran plataformas web, sistemas CRM, optimización de procesos back-office y la integración de nuevas funcionalidades en sistemas core. Con fuerte presencia en mercados como Estados Unidos, México, Colombia, Perú, Argentina y España, ofrecemos soluciones de alta calidad certificada, que combinan metodologías ágiles y prácticas de mejoramiento continuo, posicionándonos como referentes en innovación digital y transformación empresarial.

Apply directly through getonbrd.com.

Responsabilidades Principales

  • Diseñar, planificar y ejecutar migraciones de sistemas y servicios a entornos cloud.
  • Configurar y administrar recursos en ambas plataformas, garantizando rendimiento, disponibilidad y seguridad.
  • Documentar arquitecturas, procesos y decisiones técnicas.
  • Proponer mejoras continuas en infraestructura cloud.
  • Diagnosticar y resolver problemas de infraestructura cloud.

Skills técnicos excluyentes

  • Experiencia comprobable en migraciones cloud (on-premise a Azure y/o AWS).
  • Conocimientos en Azure ( Azure AD, networking, storage, App Services).
  • Conocimientos sólidos en AWS (EC2, S3, IAM, RDS, Lambda, CloudFormation).
  • Manejo de herramientas de automatización e infraestructura como código (Terraform, Ansible, CloudFormation).
  • Experiencia con sistemas operativos Linux y Windows en entornos cloud.
  • Seguridad en la nube (gestión de accesos, políticas, compliance).

Soft Skills deseables

  • Buen trabajo en equipo, fomentando la colaboración y el apoyo mutuo.
  • Comunicación efectiva, tanto con compañeros como con líderes técnicos y de negocio.
  • Proactividad para levantar alertas, proponer mejoras o anticipar riesgos.
  • Adaptabilidad frente a cambios de contexto, prioridades y metodologías de trabajo.
  • Buena disposición para colaborar con otras áreas técnicas y no técnicas.

Condiciones

Ofrecemos un ambiente laboral colaborativo y enriquecedor, ideal para tu desarrollo profesional continuo.
Puedes disfrutar de flexibilidad laboral y la oportunidad de trabajar en proyectos internacionales, lo que te brindará una vasta experiencia en el ámbito digital.
En ZerviZ, fomentamos un ambiente diverso e inclusivo donde la creatividad y la innovación son fundamentales.
Apoyamos tu crecimiento profesional y confiamos en tu capacidad para marcar la diferencia en nuestros proyectos.
Dentro de nuestros beneficios contamos con:

  • Seguro complementario de salud
  • Afiliación a Caja Los Andes
  • Afiliación a Mundo Achs
  • Operativos preventivos de salud
  • Día de cumpleaños libre
  • Capacitación y formación continua
  • Becas de estudio
  • Aguinaldos de fiestas patrias y navidad

¡Si te apasiona la tecnología y deseas mejorar la experiencia del cliente, únete a nosotros!

Wellness program Zerviz Technologies offers or subsidies mental and/or physical health activities.
Relocation offered If you are moving in from another country, Zerviz Technologies helps you with your relocation.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Mobile phone provided Zerviz Technologies provides a mobile phone for work use.
Commuting stipend Zerviz Technologies offers a stipend to cover some commuting costs.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Zerviz Technologies offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Data Scientist
  • Haystack News
  • Lima (In-office)
Python Data Analysis SQL NoSQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack feature at Google IO: https://www.youtube.com/watch?v=-YawUi6qPck

Apply to this job directly at getonbrd.com.

Job functions

We are looking for an outstanding Data Scientist to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Data Science, Machine Learning, and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
$$$ Full time
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

This job is published by getonbrd.com.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB View Job
Gross salary $6500 - 7500 Full time
Data Engineer / Data Architect
  • Zaelot
Python SQL Web server Big Data
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

Apply from getonbrd.com.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Virtualization Amazon Web Services
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

Applications at getonbrd.com.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $2000 - 3000 Full time
Ingeniero/a de Datos / AI
  • Devups
Python Agile MySQL PostgreSQL
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Apply directly on the original site at Get on Board.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $1700 - 2100 Full time
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

© getonbrd.com.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
Gross salary $2200 - 2500 Full time
Analista Senior BI
  • BC Tecnología
  • Santiago (Hybrid)
Analytics Excel SQL Business Intelligence
BC Tecnología es una consultora de Servicios IT con más de seis años de experiencia ofreciendo soluciones tecnológicas adaptadas a las necesidades específicas de sus clientes, que incluyen sectores como servicios financieros, seguros, retail y gobierno. Nos especializamos en la formación de equipos ágiles para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Además, administramos portafolios de proyectos, realizamos outsourcing y llevamos a cabo selección de profesionales especializados, siempre con un enfoque claro en el cliente, metodologías ágiles y el desarrollo continuo de productos de alta calidad.

Apply at getonbrd.com without intermediaries.

Responsabilidades principales

  • Diseñar, desarrollar y mantener dashboards e informes utilizando Power BI para respaldar decisiones estratégicas de negocio.
  • Realizar análisis de datos orientados a identificar oportunidades de mejora y resolver problemáticas comerciales, apoyando diferentes áreas de la organización.
  • Colaborar estrechamente con varias unidades de negocio para recopilar requerimientos y proponer soluciones analíticas basadas en datos.
  • Fomentar la adopción y uso eficiente de herramientas analíticas, promoviendo la alfabetización digital dentro de la empresa.
  • Implementar buenas prácticas en el modelamiento de datos, diseño visual de informes y validación de fuentes confiables para garantizar la precisión de la información.
  • Participar activamente en iniciativas de automatización y mejora continua de reportes para optimizar procesos y reducir tiempos.

Requisitos

Buscamos un Analista Senior BI con dominio avanzado en Power BI, especialmente en DAX, modelamiento de datos y visualización efectiva de información. Es fundamental tener conocimientos sólidos en SQL para extracción y manipulación eficiente de datos, así como habilidades avanzadas en Excel para el análisis complementario. Se valorará experiencia adicional con herramientas de visualización como Tableau, que aporte diversidad en la presentación de datos, y conocimientos en plataformas en la nube tales como Google BigQuery o AWS Redshift, que ayuden a gestionar grandes volúmenes de información.
Además, el candidato debe contar con fuertes habilidades de comunicación para interactuar efectivamente con clientes internos y equipos multifuncionales, tener orientación al cliente para entender sus necesidades y una mentalidad analítica que permita transformar datos en insights estratégicos. La capacidad para trabajar en entornos colaborativos, con metodologías ágiles y una proactividad constante será clave para el éxito en este rol.

Conocimientos deseables

Serán altamente valorados conocimientos y experiencia previa en Tableau, que permita complementar y diversificar las soluciones de visualización de datos. Asimismo, el manejo de plataformas de datos en la nube como Google BigQuery o AWS Redshift es deseable para facilitar el procesamiento y análisis de grandes volúmenes de datos desde infraestructuras modernas y escalables. Estas habilidades aportarán mayor flexibilidad y profundidad a las soluciones de inteligencia de negocios en la organización.

Beneficios

Ofrecemos un contrato inicial para un proyecto de dos meses, con posibilidad de extensión dependiendo del desempeño y las necesidades del proyecto. La modalidad de trabajo es híbrida, combinando la flexibilidad del trabajo remoto con la colaboración presencial. Promovemos un ambiente de aprendizaje continuo apoyado en metodologías ágiles y un equipo diverso enfocado en la calidad y los resultados. Este proyecto es ideal para quienes disfrutan enfrentar retos tecnológicos en ambientes dinámicos y críticos, donde el impacto de su trabajo es tangible.

APPLY VIA WEB View Job
Gross salary $1800 - 3000 Full time
Ingeniero/a de Datos para Asistente Conversacional IA
  • Lisit
Python PostgreSQL SQL MongoDB
Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software que brindan herramientas de automatización y optimización para sus clientes, manteniendo un fuerte enfoque en la innovación y la pasión por resolver desafíos tecnológicos complejos. Buscamos incorporar talento para trabajar en un proyecto puntero que consiste en el desarrollo de un asistente conversacional inteligente basado en inteligencia artificial.
El proyecto se centra en la construcción de un sistema capaz de procesar lenguaje natural (NLP) utilizando datos de diversas fuentes, para lo cual se requiere una infraestructura de datos sólida, escalable y fiable que permita alimentar los modelos inteligentes de lenguaje y mejorar continuamente la interacción conversacional, aportando valor a nuestros clientes mediante soluciones eficientes y tecnológicamente avanzadas.

Applications at getonbrd.com.

Descripción del rol y responsabilidades

Como Ingeniero/a de Datos en este proyecto, serás responsable de diseñar, construir y mantener pipelines ETL/ELT que permitan la ingesta y procesamiento eficiente de datos diversos y no estructurados, como chats, correos electrónicos y logs, transformándolos en formatos precisos y útiles para el entrenamiento y operación de modelos de procesamiento de lenguaje natural (NLP).
Asimismo, integrarás fuentes de datos externas a través de APIs RESTful, gestionarás bases de datos relacionales como PostgreSQL y NoSQL como MongoDB, y optimizarás el almacenamiento de grandes volúmenes de datos en soluciones cloud como S3, BigQuery o Redshift. También garantizarás la calidad, trazabilidad y gobernanza de los datos para mantener la confiabilidad del sistema.
El rol incluye implementar medidas de anonimización y protección para los datos sensibles, asegurando el cumplimiento de normativas vigentes en materia de privacidad y manejo ético de la información, y colaborarás con el equipo multidisciplinario para cumplir con los objetivos tecnológicos y de negocio del proyecto.

Requisitos y habilidades esenciales

Buscamos un profesional con experiencia sólida en Python, utilizando librerías especializadas como Pandas, PySpark o Dask para el procesamiento y transformación de datos a gran escala. Es necesario tener un dominio avanzado en SQL y experiencia práctica con bases de datos relacionales y NoSQL, especialmente PostgreSQL y MongoDB.
Se requiere conocimiento comprobable en herramientas de orquestación de flujos de trabajo de datos, como Apache Airflow, y manejo de almacenamiento en la nube en plataformas como Azure, AWS S3 o Google Cloud Storage (GCS).
Es fundamental contar con experiencia en el procesamiento de datos no estructurados aplicados a modelos de NLP y manejo adecuado de APIs RESTful para la integración de diferentes fuentes y servicios.
Además de las habilidades técnicas, valoramos competencias orientadas a la gestión minuciosa de la calidad y gobernanza de datos, capacidad analítica y pensamiento crítico para mantener estándares rigurosos que garanticen la efectividad del asistente conversacional inteligente.

Conocimientos y experiencia deseables

Se valorará experiencia previa en proyectos relacionados con asistentes virtuales o tecnologías de procesamiento de lenguaje natural (NLP), así como familiaridad con prácticas DataOps para la gestión eficiente de pipelines y control de versiones de datos.
El conocimiento de normativas internacionales de privacidad y protección de datos, como GDPR e HIPAA, junto con técnicas avanzadas de anonimización, será un plus muy importante para desempeñarse con éxito en el cargo.

Beneficios y ambiente laboral

Ofrecemos la oportunidad de participar en proyectos tecnológicos desafiantes y de largo plazo dentro de un equipo técnico colaborativo, en un ambiente laboral amigable y profesional.

El trabajo es 100% remoto, lo cual fomenta la conciliación entre la vida personal y profesional sin perder la comunicación fluida y el compromiso con el equipo.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB View Job
$$$ Full time
Senior Data Engineer
  • Playbypoint
Python SQL Machine Learning Kafka
🏓 Senior Data Engineer
📍 Remote | Full-time
Join us in building the future of racquet sports.

🧠 About the Team & Project
At Playbypoint, we're on a mission to transform the racquet sports industry with powerful, intuitive software. From tennis to pickleball, our platform helps clubs thrive by elevating player engagement and simplifying operations. As part of our Data & Insights team, you’ll work alongside backend engineers, product leaders, and business stakeholders to turn raw data into actionable insights that shape our product strategy and operational decisions.
Our team plays a critical role in helping the company scale. We believe that better data leads to better decisions—and we're building the infrastructure to make that possible.

Exclusive to Get on Board.

🔧 What You’ll Do

As a Senior Data Engineer, you'll design, develop, and maintain scalable data pipelines to support our real-time and batch analytics needs. You’ll take ownership of how data flows through our system, ensuring it’s clean, accessible, and reliable for use across engineering, product, and business teams.
You’ll:
  • Build and optimize data pipelines using Kafka, Airflow, and cloud-native tools.
  • Manage data lakes and warehouses using Apache Iceberg, Amazon S3, and ClickHouse or Snowflake.
  • Ensure data integrity and quality across all stages of our pipeline.
  • Collaborate closely with analysts and engineers to support key business metrics and machine learning workflows.
  • Contribute to internal tooling that improves data observability and developer experience.
Your success will be measured by the reliability, scalability, and performance of the data infrastructure you build—as well as your ability to empower others with trusted data.

✅ What We’re Looking For

We’re looking for someone who thrives in a fast-paced startup environment and is passionate about building systems that scale.
Required:
  • 5+ years of experience in Data Engineering
  • Strong experience with streaming technologies like Kafka
  • Proficiency in Python and SQL
  • Solid experience with workflow orchestration tools (e.g., Airflow)
  • Familiarity with OLAP databases such as Snowflake, Clickhouse, or Redshift
  • Experience managing data workflows in a cloud environment (preferably AWS)

Desirable skills

Nice to Have:
  • Experience with ClickHouse
  • Certifications in AWS, Snowflake, or similar platforms
  • Hands-on knowledge of DataOps or ML Ops at scale
  • Experience with LLMs &/or Agents building
  • Familiarity with data versioning and formats like Parquet, Iceberg, or Delta Lake

🌍 Why Playbypoint?

We're not just building tools—we're building a movement to connect people through the joy of sports. You’ll join a collaborative, ambitious team where your work directly impacts thousands of players and clubs across the world. Plus, we’re remote-first and flexible, so you can work from wherever you do your best thinking.
🎯 Ready to serve up your next challenge?
Apply now and help shape the future of racquet sports.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Company retreats Team-building activities outside the premises.
Computer provided Playbypoint provides a computer for your work.
Conference stipend Playbypoint covers tickets and/or some expenses for conferences related to the position.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

© getonbrd.com.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $2400 - 2600 Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Send CV through Get on Board.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $1500 - 1700 Full time
Analista de Datos
  • BC Tecnología
  • Buenos Aires (Hybrid)
Python Data Analysis SQL Business Intelligence
En BC Tecnología, somos una consultora especializada en servicios IT, trabajando con clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de BI & Analytics juega un papel crucial en la optimización de procesos y toma de decisiones informadas mediante la administración y análisis de datos. Buscamos un Analista de Datos que se una a nuestro equipo, aportando experiencia y conocimiento en herramientas clave.

This posting is original from the Get on Board platform.

Responsabilidades

Como Analista de Datos, serás el representante del equipo de BI & Analytics en Argentina. Tus responsabilidades incluirán:
  • Desarrollar y optimizar consultas SQL para la extracción y transformación de datos.
  • Implementar y gestionar pipelines de datos en Databricks.
  • Aplicar Python para el procesamiento y análisis avanzado de datos.
  • Servir como enlace entre el equipo de BI & Analytics y las áreas de negocio en el país, asegurando que las iniciativas de BI estén alineadas con las necesidades estratégicas de la empresa.
  • Asegurar la calidad y disponibilidad de los datos para la toma de decisiones.
  • Colaborar con equipos multidisciplinarios para definir y mejorar modelos analíticos.

Requisitos

  • Experiencia sólida en desarrollo BI con SQL avanzado.
  • Conocimiento y experiencia en Databricks (deseable).
  • Habilidad en Python para manipulación y análisis de datos.
  • Experiencia en entornos de análisis y procesamiento de datos en la nube (Azure, AWS, GCP es un plus).

Habilidades Deseables

Buscamos a alguien que no solo cumpla con los requisitos técnicos, sino que también posea habilidades interpersonales para colaborar efectivamente con equipos diversos y facilitar la comunicación entre departamentos. La adaptabilidad y una mentalidad centrada en soluciones son altamente valoradas en nuestra cultura de trabajo.

Beneficios

En BC Tecnología, te ofrecemos un entorno laboral dinámico y colaborativo, con un modelo de trabajo híbrido que idealiza la integración entre lo presencial y lo remoto. Además, tendrás acceso a oportunidades de capacitación continua, un ambiente que fomenta la innovación y centenares de oportunidades para crecer profesionalmente al lado de expertos. Valoramos a nuestros colaboradores y buscamos su desarrollo constante.

Health coverage BC Tecnología pays or copays health insurance for employees.
APPLY VIA WEB View Job
Gross salary $2500 - 2800 Full time
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

© Get on Board.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Consultor de Estrategia en Microstrategy
  • BC Tecnología
  • Santiago (Hybrid)
Data Analysis SQL Business Intelligence Virtualization

En BC Tecnología somos una consultora de servicios IT con más de 6 años de experiencia en la formación de equipos y desarrollo de proyectos para sectores como servicios financieros, seguros, retail y gobierno. Nuestra propuesta se centra en soluciones tecnológicas personalizadas, el outsourcing de personal especializado y la gestión ágil de áreas de infraestructura, desarrollo y unidades de negocio. Participarás en proyectos orientados al diseño de soluciones y desarrollo de software, trabajando para clientes de alto nivel en un entorno que promueve la innovación y el cambio organizacional.

Find this vacancy on Get on Board.

Responsabilidades Principales

  • Diseñar y desarrollar informes en MicroStrategy versiones 2020 y 2021.
  • Administrar entornos MicroStrategy utilizando la herramienta Developer para tareas de mantenimiento, configuración y administración.
  • Ejecutar consultas SQL para la extracción y análisis de datos.
  • Conectar y trabajar con entornos de datos alojados en AWS Redshift.
  • Modelar objetos de esquema mediante Architect.
  • Administrar y desarrollar cubos OLAP en MicroStrategy.
  • Utilizar la herramienta Workstation para la gestión de proyectos y recursos.
  • Diseñar y distribuir contenidos analíticos a través de la Biblioteca MSTR.

Requisitos Técnicos

Buscamos un profesional con experiencia comprobable en entornos de inteligencia de negocios, especializado en MicroStrategy y SQL avanzado. Debe contar con experiencia en manejo de plataformas cloud, especialmente AWS Redshift. La persona ideal posee habilidades para desarrollar, administrar y optimizar soluciones analíticas complejas, desde la creación de informes y modelamiento de datos hasta la explotación de herramientas analíticas avanzadas.

Consideramos fundamental el manejo de las diferentes versiones de MicroStrategy (2020 y 2021), así como la capacidad para administrar esquemas y cubos OLAP. Además, debe ser capaz de trabajar en equipo, mostrar proactividad ante problemas técnicos y tener una visión estratégica para la mejora continua de los procesos analíticos.

Conocimientos Deseables / Complementarios

  • Desarrollo de soluciones analíticas en MicroStrategy Mobile.
  • Implementación de flujos transaccionales mediante MicroStrategy Transactions.
  • Creación de visualizaciones y paneles avanzados en FreeForm.
  • Uso de Visual Insights para análisis interactivo de datos.
  • Certificación o experiencia práctica con funcionalidades avanzadas de MicroStrategy.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB View Job
Gross salary $2000 - 3000 Full time
Data Engineer Inteligencia Artificial
  • DSS S.A.
Python PostgreSQL SQL Virtualization

Somos DSS, una consultora ambiental con 22 años de experiencia y más de 100 colaboradores. Apoyamos a nuestros clientes a cumplir con la normativa ambiental, contribuyendo a un desarrollo sustentable. Actualmente, estamos desarrollando plataformas para la gestión ambiental que incluyen herramientas de Inteligencia Artificial. Si te interesa aplicar tus conocimientos en tema ambientales y contribuir en la lucha al cambio climático, este es el lugar.

Job opportunity on getonbrd.com.

Tus Funciones

Buscamos un/a Data Engineer Senior con foco en IA, que se una a nuestro equipo para liderar el diseño y automatización de pipelines de datos, y contribuir directamente en la infraestructura que habilita nuestros sistemas de machine learning y procesamiento de lenguaje natural.

  • Diseñar y optimizar pipelines de datos (ETL/ELT) para alimentar modelos de inteligencia artificial.
  • Colaborar con científicos de datos e ingenieros de ML en la preparación, validación y entrega de datasets de entrenamiento.
  • Automatizar procesos de extracción, transformación y carga masiva de datos desde múltiples fuentes.
  • Administrar bases de datos en entornos cloud (Azure) y locales (PostgreSQL).
  • Participar en el diseño de arquitecturas modernas (data lakehouse, medallion) para estructuración eficiente de datos.
  • Orquestar workflows de datos con herramientas como Azure Data Factory o similares (Airflow, Prefect, etc.), que se integren a pipelines CI/CD en Azure DevOps para el ciclo completo de datos.

Requerimientos del cargo

  • Al menos 3 años de experiencia como Data Engineer, con participación en proyectos de IA o machine learning.
  • Dominio avanzado de Python (pandas, NumPy, PySpark) y SQL.
  • Experiencia con herramientas de orquestación de datos como Azure Data Factory o similares (Airflow, Prefect, etc.).
  • Conocimiento de arquitecturas de datos en la nube (idealmente en Azure, pero también valoramos experiencia en AWS o GCP).
  • Experiencia trabajando con grandes volúmenes de datos estructurados y no estructurados.
  • Familiaridad con conceptos de machine learning y pipelines de entrenamiento.

Deseables

  • Experiencia en la construcción y optimización de pipelines para big data.
  • Manejo de pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.

Condiciones

  • Trabajo remoto, con algunas reuniones presenciales a la semana (internas y con clientes).
  • Contamos con oficinas en Concepción y Santiago.
  • No tenemos código de vestimenta.
  • Estamos afiliados a caja de compensación, donde podrás acceder a beneficios.
  • Tenemos convenio para seguro de salud.
  • Celebramos almuerzos mensuales, aniversario y otras actividades.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage DSS S.A. pays or copays health insurance for employees.
Computer provided DSS S.A. provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $2500 - 3500 Full time
AI Engineer Especialista en Llms y Transformers
  • Devups
Python Git Virtualization Amazon Web Services
En Devups, somos una empresa especializada en servicios de staff augmentation que permite a las compañías incorporar rápidamente desarrolladores y especialistas tecnológicos sin la complejidad asociada al reclutamiento tradicional. Nuestro enfoque se basa en proporcionar talento altamente calificado de forma flexible y escalable para potenciar el crecimiento y éxito de nuestros clientes. Actualmente, estamos trabajando con clientes en el desarrollo e integración de soluciones basadas en inteligencia artificial avanzada, particularmente en el área de modelos de lenguaje grandes (LLMs) y arquitecturas Transformer. Estos proyectos buscan innovar en el procesamiento y generación de lenguaje natural, optimizar pipelines de recuperación aumentada de generación (RAG) y desplegar sistemas inteligentes que impacten directamente en productos y servicios de última generación.

Official source: getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines eficientes para modelos de lenguaje, especialmente para tareas de fine-tuning y adaptación usando frameworks como Hugging Face.
  • Implementar y optimizar técnicas de RAG (Retrieval-Augmented Generation) para mejorar la integración de datos externos y contexto en los modelos.
  • Gestionar bases de datos vectoriales y embeddings con herramientas como FAISS o Pinecone para facilitar búsquedas semánticas efectivas.
  • Desarrollar APIs robustas para exponer modelos y servicios mediante frameworks Python como FastAPI o Flask.
  • Configurar y desplegar aplicaciones en entornos cloud escalables, utilizando principalmente AWS o Google Cloud Platform.
  • Colaborar en la integración continua y control de versiones mediante Git y Docker para garantizar la reproducibilidad y portabilidad del software.
  • Participar en la evaluación de modelos, experimentando con entrenamientos distribuidos y herramientas avanzadas como DeepSpeed o BitsAndBytes para mejorar la eficiencia y precisión.
  • Trabajar en equipo coordinadamente, aportando feedback, documentando buenas prácticas y manteniendo altos estándares de calidad en el desarrollo.

Perfil y requisitos técnicos

Buscamos ingenieros en inteligencia artificial con experiencia demostrable en el trabajo con modelos de lenguaje grandes (LLMs) y arquitecturas Transformer, que tengan pasión por la innovación y la implementación de soluciones escalables y bajo producción. El candidato ideal deberá contar con:
  • Experiencia práctica utilizando librerías y frameworks de última generación como Hugging Face, realizando fine-tuning con técnicas avanzadas como LoRA, QLoRA o PEFT.
  • Dominio de conceptos y herramientas para Retrieval-Augmented Generation (RAG), junto con manejo de embeddings y bases de datos vectoriales (FAISS, Pinecone).
  • Competencia avanzada en Python y desarrollo de APIs con FastAPI o Flask.
  • Experiencia en contenedorización con Docker, control de versiones con Git y despliegue en AWS o Google Cloud Platform.
  • Conocimientos en evaluación y benchmarking de modelos de IA, así como en entrenamiento distribuido y optimización usando herramientas como DeepSpeed o BitsAndBytes, que se valorarán altamente.
  • Nivel de inglés intermedio-alto (B2 o superior) para comunicarse de manera efectiva en equipos técnicos internacionales.
  • Capacidad de trabajo autónomo y remoto, proactividad en resolución de problemas y actitud colaborativa para trabajar en equipos distribuidos.
Valoramos especialmente la experiencia en modelado y evaluación rigurosa, así como el interés en seguir aprendiendo y aplicando tecnologías emergentes en el campo de la inteligencia artificial.

Habilidades y conocimientos adicionales valorados


  • Experiencia previa en entrenamiento y ajuste fino de modelos a gran escala en entornos de producción.
  • Conocimientos de optimización de modelos para eficiencia de inferencia y consumo de recursos.
  • Manejo de infraestructura en la nube orientada a machine learning, incluidos pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.
  • Capacidades básicas en otras áreas de la IA, como visión computacional o aprendizaje reforzado.
  • Habilidades comunicativas y capacidad para documentar procesos técnicos de forma clara y precisa.

Qué ofrecemos

Formarás parte de Devups, un entorno de trabajo flexible que impulsa la innovación, el crecimiento profesional y el aprendizaje continuo. Como empresa de staff augmentation, ofrecemos modalidad 100% remota en toda Latinoamérica, facilitando un equilibrio óptimo entre vida laboral y personal.
Promovemos el desarrollo profesional mediante capacitaciones y certificaciones en tecnologías punteras, asegurando que nuestro talento se mantenga a la vanguardia.
Además, nuestro modelo flexible te permite integrarte rápidamente a proyectos desafiantes con gran impacto, participando en la construcción de soluciones avanzadas en inteligencia artificial.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Devups gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
$$$ Full time
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply without intermediaries from Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB View Job
Gross salary $2500 - 3000 Full time
MLOps Engineer
  • Niuro
Python Linux Sysadmin Artificial Intelligence
Niuro is a global technology company dedicated to connecting elite tech teams with leading U.S. enterprises. We focus on delivering innovative industrial data projects that drive transformation and foster innovation. By partnering with top-tier companies in the United States, we enable our teams to work on impactful challenges in a collaborative and technically rigorous environment. Our projects typically involve developing scalable, automated machine learning pipelines, leveraging cloud services, and integrating cutting-edge MLOps tools to ensure continuous delivery and operational excellence.
As part of Niuro, you will contribute to these projects with a strong emphasis on automation, reliability, and scalability of ML solutions, while benefiting from our commitment to professional growth, training, and leadership development.

Job source: getonbrd.com.

Role and Responsibilities

As a Senior MLOps Engineer at Niuro, you will be responsible for designing, implementing, and maintaining robust machine learning operations pipelines to support large-scale data and ML workflows.
  • Build and manage end-to-end ML lifecycle automation using tools like Databricks and MLflow.
  • Collaborate closely with data scientists, software engineers, and project stakeholders to streamline model deployment, monitoring, and versioning.
  • Develop and optimize batch processing pipelines on Linux environments to ensure efficient data throughput.
  • Implement best practices for CI/CD within ML workflows using Bitbucket repositories and automated testing frameworks.
  • Ensure infrastructure reliability, scalability, and security for ML production environments.
  • Troubleshoot and resolve operational issues related to ML systems and data workflows.
  • Contribute to the team's continuous improvement by sharing knowledge, mentoring juniors, and participating in architecture discussions.

Required Skills and Experience

We are looking for experienced MLOps engineers with a strong technical background in operationalizing machine learning models and workflows in production environments. The ideal candidate will have:
  • Deep hands-on experience with Databricks for big data processing and ML model management.
  • Proficiency in using MLflow for experiment tracking, model registry, and deployment pipelines.
  • Strong Python programming skills, especially for scripting automation tasks and pipeline development.
  • Experience working with Bitbucket for source code management and CI/CD integration.
  • In-depth knowledge of designing and managing batch processing systems, optimizing job scheduling and resource allocation.
  • Comfortable working in Linux environments, with solid command-line skills and system administration basics.
  • Good conversational English skills to effectively communicate with our U.S.-based teams and stakeholders.
  • Strong problem-solving skills, attention to detail, and ability to work autonomously in a remote setting.
  • Prior experience in collaborative remote teams and agile methodologies is a plus.
We value individuals who are proactive learners and continuously seek innovative solutions to complex ML operational challenges.

Preferred Qualifications


  • Experience with cloud platforms such as AWS, Azure, or GCP, especially their ML and data pipeline services.
  • Familiarity with containerization tools like Docker and orchestration frameworks such as Kubernetes.
  • Knowledge of infrastructure-as-code (IaC) tools like Terraform or CloudFormation.
  • Exposure to real-time data streaming technologies such as Kafka or AWS Kinesis.
  • Background in software engineering practices including unit testing, code reviews, and design patterns.
  • Previous experience in mentoring or leading technical teams.

What We Offer

At Niuro, we provide a fully remote work environment with a flexible schedule that allows you to work from anywhere within the LATAM region. We believe in fostering a culture of continuous learning and professional development through ongoing training programs in both technical and leadership skills.
We offer the opportunity to join projects that are technically challenging and impactful in the industrial data space, enabling you to grow your skill set and advance your career. Our supportive infrastructure handles all administrative tasks including hiring, payments, and training so you can focus entirely on your core responsibilities.
Successful collaboration on initial contracts often leads to longer-term, stable employment opportunities, reinforcing our commitment to our team members’ career paths.

APPLY VIA WEB View Job
Gross salary $3500 - 4200 Full time
Full-Stack AI & Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Django Go DevOps
Somos una empresa con 30 años en el mercado Latinoamericano dedicada al desarrollo de software y servicios TI, con especialización en tecnologías como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos. Contamos con una fábrica de desarrollo de software y prestación de servicios profesionales mediante Outsourcing, con operaciones en Concepción y Santiago. Nuestra matriz está en Concepción y trabajamos continuamente para elevar el estándar tecnológico de las empresas, acompañándolas en su camino hacia la Transformación Digital.

Applications at getonbrd.com.

Responsabilidades:

  • Liderazgo y Arquitectura en GenAI: Diseñar y entregar aplicaciones GenAI sofisticadas orientadas al usuario, aprovechando soluciones avanzadas basadas en modelos de lenguaje (LLM) para abordar necesidades complejas de clientes.
  • Desarrollo e Integración Backend: Crear servicios backend robustos con Python (FastAPI) para integrar LLMs en diversas plataformas.
  • Diseño Avanzado de Workflows: Arquitectura de flujos de trabajo dinámicos, modulares y agentivos, incluyendo técnicas de Generación Aumentada por Recuperación (RAG) con opciones de LLM como OpenAI, Gemini y Claude.
  • Especialización en Ingeniería de Prompts: Aplicar técnicas avanzadas de prompts, incluyendo patrones React y Reflex, para optimizar salidas de LLM y mejorar la interacción con usuarios.
  • Gestión de Datos y Modelos: Integrar y administrar búsquedas vectoriales y almacenes de datos híbridos (Pinecone, Elastic Search, Azure AI Search), así como implementar modelos de embeddings avanzados (text-ada-embedding y similares).
  • Despliegue y Gobernanza de IA: Orquestar despliegues en contenedores utilizando Kubernetes y Terraform; implementar controles semánticos (guardrails) con herramientas como Langsmith y Datadog para asegurar gobernanza y observabilidad.
  • Mentoría y Guía Técnica: Brindar soporte técnico, fomentar buenas prácticas y mentoría a equipos de ingeniería en flujos GenAI, asegurando calidad e innovación constante.

Requisitos Excluyentes:

  • Nivel de inglés conversacional obligatorio.
  • Dominio experto en Python; familiaridad con Go es una ventaja.
  • Experiencia amplia en frameworks web: FastAPI, Flask y Django.
  • Experiencia práctica con plataformas GenAI y LLMs como OpenAI, Gemini y Claude.
  • Conocimiento profundo y aplicación práctica de metodologías GenAI: RAG, Tree-of-Thoughts, Few-Shot Prompting y flujos de trabajo con agentes.
  • Experiencia con almacenes de datos vectoriales: Azure AI Search, AWS OpenSearch, Pinecone y Elastic Search.
  • Conocimiento y experiencia en guardrails y gobernanza IA: Semantic Router, Nemo Guardrails, Azure Semantic Routers, Langsmith.
  • Competencia en desplegar IA en al menos una plataforma cloud principal (Azure, AWS, GCP).
  • Conocimiento en librerías y frameworks: LangChain, LangGraph, NLTK, PyTorch, TensorFlow.
  • Familiaridad con DevOps y CI/CD: Kubernetes, Terraform, CircleCI y Datadog para orquestación y monitoreo.
Buscamos un profesional que combine habilidad técnica avanzada con capacidad de liderazgo e innovación, orientado a la calidad, trabajo en equipo, y la mentoría continua de sus pares.

Deseable:

Conocimientos adicionales en Go para complementar el stack de desarrollo. Experiencia previa en proyectos relacionados con inteligencia artificial aplicada y automatización de procesos. Capacidad de trabajo en entornos multidisciplinarios y manejo de metodologías ágiles de desarrollo. Habilidades de comunicación efectiva para interactuar con distintos equipos y stakeholders.

Beneficios:

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras dentro de un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.
Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
Trabajo híbrido con 3 días presenciales en Providencia o Concepción y 2 días remotos.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
APPLY VIA WEB View Job
$$$ Full time
Experto en Agentes de IA
  • Moventi
JavaScript Python Agile REST API
Moventi es una empresa líder dedicada a ayudar a organizaciones a liderar la transformación tecnológica con una mentalidad innovadora. Nos enfocamos en proyectos que integran tecnologías emergentes como inteligencia artificial y automatización para generar impactos positivos en el negocio. Nuestra área de trabajo se sustenta en equipos multidisciplinarios que colaboran de manera ágil en una oficina céntrica equipada para facilitar la creatividad y el trabajo en equipo, combinando encuentros presenciales con trabajo remoto. El proyecto para el cual buscamos un experto en agentes de IA se enfoca en el desarrollo e implementación de workflows avanzados para la automatización mediante la plataforma n8n, integrando múltiples APIs y modelos de inteligencia artificial para optimizar procesos empresariales y potenciar resultados de alto valor.

Applications at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener workflows avanzados utilizando n8n para automatizar procesos complejos dentro de la organización y proyectos de clientes.
  • Integrar diversas APIs y modelos de inteligencia artificial, asegurando una comunicación eficiente y robusta entre sistemas.
  • Implementar agentes de IA capaces de ejecutar tareas automatizadas con un alto nivel de autonomía y precisión.
  • Colaborar con equipos multidisciplinarios para identificar oportunidades de automatización e innovación mediante IA.
  • Analizar y optimizar continuamente los flujos de trabajo para mejorar la eficiencia y escalabilidad de las soluciones implementadas.
  • Documentar las arquitecturas, procesos y soluciones desarrolladas para asegurar la transferencia de conocimiento dentro del equipo.

Requisitos y habilidades

Buscamos un profesional con amplia experiencia en el desarrollo de workflows avanzados usando n8n, con conocimientos sólidos en la integración de APIs RESTful y otros protocolos relevantes.
Es indispensable contar con una comprensión profunda de los modelos de inteligencia artificial actuales y su aplicación práctica en agentes autónomos o asistentes virtuales.

Además, valoramos habilidades analíticas, capacidad para resolver problemas complejos y un enfoque orientado a resultados. Se requiere un nivel alto de autonomía en la gestión de proyectos, excelentes habilidades comunicativas para trabajar en equipos multidisciplinarios.

Un perfil con experiencia en programación, manejo de bases de datos, y familiaridad con herramientas de DevOps será altamente beneficioso.

Habilidades y experiencias deseables

Experiencia previa en proyectos de automatización dentro de sectores como marketing o finanzas una ventaja. Conocimiento en lenguajes de programación como Python o JavaScript para extender funcionalidades complementarias a n8n.

Familiaridad con plataformas de nube (AWS, Azure o Google Cloud) y metodologías ágiles de desarrollo.

Tener experiencia en machine learning y manejo de frameworks para entrenamiento y despliegue de modelos también aportará un valor diferencial.

Beneficios y cultura

  • Oportunidades continuas de crecimiento profesional y aprendizaje en un ambiente multidisciplinario.
  • Participación en proyectos retadores que impulsan la innovación y el desarrollo de habilidades técnicas.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $3000 - 4000 Full time
Data Engineer / Machine Learning Engineer
  • Lilo AI
Python PostgreSQL SQL NoSQL
Lilo AI is an innovative startup dedicated to transforming procurement for Commercial Real Estate (CRE) businesses by creating the most hassle-free procurement platform globally. Our platform leverages artificial intelligence to automate and optimize various procurement workflows, including invoicing, vendor management, and price comparisons. Serving diverse sectors such as hotels, gyms, schools, and senior living homes, our solutions save clients valuable time and money while improving operational efficiency. Our major clients include prestigious brands such as Fairfield, Hampton Inn, and Hilton. By joining Lilo AI, you will contribute to revolutionizing procurement processes at scale through cutting-edge AI technologies.

This job offer is on Get on Board.

About the Role

As a Data Engineer / Machine Learning Engineer at Lilo AI, you will play a pivotal role in advancing and deploying machine learning solutions that enhance our procurement platform. Your primary responsibilities will include:
  • Designing, developing, and implementing machine learning models to optimize procurement workflows, such as price prediction algorithms, anomaly detection systems, and recommendation engines.
  • Building and maintaining robust data pipelines to efficiently preprocess and cleanse both structured and unstructured datasets.
  • Collaborating closely with engineers, product managers, and business stakeholders to integrate AI-driven insights seamlessly into our platform environment.
  • Optimizing model performance and reliability, including contributing to monitoring strategies and retraining pipelines to sustain production quality.
  • Keeping abreast of the latest developments in AI, machine learning, and data science to continually enhance our technology stack.
  • Supporting the deployment of machine learning models into production environments and improving MLOps workflows to increase operational efficiency.
This role requires a proactive mindset, a passion for AI applications in real-world business contexts, and the ability to thrive in a dynamic, fast-paced, and collaborative global team.

What You Will Need

To succeed in this role, candidates should demonstrate strong technical proficiency and relevant experience as detailed below:
  • A minimum of 2 years of professional experience in machine learning, data science, or closely related fields.
  • Proficiency in Python programming and familiarity with prominent ML frameworks and libraries such as Scikit-Learn, TensorFlow, or PyTorch.
  • Hands-on experience with both SQL and NoSQL databases, including but not limited to MongoDB and PostgreSQL.
  • Solid understanding of data preprocessing techniques, feature engineering, and model evaluation methodologies essential for robust ML model development.
  • Basic knowledge or experience with containerization (Docker), cloud computing platforms (AWS, Google Cloud Platform, or Azure), and MLOps tools is highly desirable.
  • Analytical mindset with strong problem-solving skills, able to handle and extract insights from large datasets effectively.
  • A continuous learner attitude, eager to develop technical and professional skills while contributing to team goals.
We value curiosity, collaboration, and adaptability, wanting individuals who are ready to grow alongside our rapidly expanding company.

Desirable Skills and Experience

While not mandatory, the following skills and experiences will give candidates an edge:
  • Experience working with time-series data, demand forecasting, or procurement-related AI models.
  • Familiarity with advanced ML techniques such as deep learning, reinforcement learning, or natural language processing.
  • Hands-on exposure to MLOps pipelines, automated model deployment, and monitoring platforms.
  • Knowledge of data engineering tools and frameworks like Apache Airflow, Spark, or Kafka.
  • Prior experience in the hospitality or Commercial Real Estate sectors.
  • Strong communication skills to effectively articulate technical concepts to non-technical stakeholders.

Why Lilo AI?

Joining Lilo AI offers a unique opportunity to make a significant impact at a fast-growing US-based startup while enjoying the flexibility of remote work from Latin America. We provide:
  • A high-impact role within a pioneering team revolutionizing procurement with AI.
  • Possibility to grow professionally with opportunities to increase responsibilities over time.
  • Stock options available for the right candidate, sharing in our long-term success.
  • A collaborative, global, and multi-cultural work environment fostering innovation and continuous learning.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Lilo AI pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Dental insurance Lilo AI pays or copays dental insurance for employees.
Computer provided Lilo AI provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Lilo AI gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
Gross salary $2000 - 2500 Full time
Ingeniero de Proyecto IA Amazon AWS
  • MB Solutions
Amazon Web Services Artificial Intelligence Jira Architecture
En MB Solutions, brindamos servicios de asesoría y desarrollo tecnológico con una larga trayectoria en el ámbito de desarrollos back-end, business intelligence y plataformas web. Nuestra experiencia se extiende a la creación de aplicaciones de alto rendimiento y alta disponibilidad, optimizando transacciones y mejorando la integración de sistemas diversos, desde legacy hasta plataformas de primera clase.
En este contexto, buscamos un Ingeniero de Proyecto con conocimientos sòlidos y experiencia comprobable en Amazon Bedrock para labores de desarrollo de proyectos asociados a Inteligencia Artificial y chatbot generativos.. Por razones legales, el/la profesional debe tener nacionalidad Chilena y residencia en territorio Chileno. Excluyente.

This offer is exclusive to getonbrd.com.

Funciones del cargo

El ingeniero debe cumplir con las tareas asociadas a proyectos de software relacionados con Inteligencia Artificial usando Amazon AWS. Las tareas comunes seràn:
  • Trabajo exclusivamente para tareas indicadas por personal de MB Solutions y sus clientes.
  • Las tareas seran entregadas y medidas a traves de JIRA.
  • Debe asistir a reuniones remotas periodicamente y cuando se estime conveniente.
  • Generar documentación asociada a sus tareas y desarrollos.
  • Dimensionar requerimientos de la mejor forma para poder solucionar las tareas asociadas de la mejor forma en términos de costo y arquitectura.
  • El trabajo se enmarca en el horario de oficina de Chile.

Requerimientos del cargo

  • Conocimientos solidos y experiencia demostrable en Amazon AWS, Bedrock.
  • Titulo profesional en instituciones de educacion superior de chile asociado a informatica.
  • Capacidad para trabajo remoto
  • Aptitudes para proponer soluciones de IA.

Conditions

Computer provided MB Solutions provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Machine Learning Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL NoSQL Big Data

Haystack News is the leader in transitioning younger audiences to a next-generation TV news product. We empower users to watch the news they care about with a personalized headline news channel. Our personalization and big data technology enable a seamless lean-back experience reaching millions of users. In 2020, we streamed billions of minutes of news to users around the globe.

We're available on a variety of TV platforms (Roku, Fire TV, Android TV, Apple TV, Chromecast, Vizio) as well as mobile, tablet, and desktop.

Find this job and more on Get on Board.

Job functions

We are looking for an outstanding machine learning engineer to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Machine Learning and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Haystack News covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
Beverages and snacks Haystack News offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
Gross salary $1800 - 3000 Full time
Ingeniero/a de NLP – Asistente Conversacional con IA
  • Lisit
Python Docker Azure Google Cloud Platform
Lisit es una empresa especializada en la creación, desarrollo e implementación de servicios de software innovadores, orientados a proveer herramientas de automatización y optimización para sus clientes. Con un fuerte enfoque en la innovación y la pasión por superar desafíos tecnológicos, Lisit acompaña a sus clientes mediante consultoría y la integración de variadas prácticas y herramientas tecnológicas, asegurando la ejecución exitosa de procesos de transformación digital a través de estrategias integrales.

Actualmente, el equipo de Lisit desarrolla un proyecto enfocado en la creación de un asistente conversacional basado en inteligencia artificial, empleando tecnologías avanzadas de procesamiento de lenguaje natural (NLP). Este proyecto busca potenciar la interacción entre usuarios y sistemas mediante la comprensión y generación de lenguaje natural, integrando modelos de última generación y soluciones tecnológicas robustas para mejorar la experiencia del usuario final.

Apply to this job opportunity at getonbrd.com.

Responsabilidades principales

En este rol como Ingeniero/a de NLP, serás responsable de diseñar e implementar modelos avanzados de procesamiento de lenguaje natural que permitan comprender y generar lenguaje natural con alta precisión. Deberás integrar modelos preentrenados como GPT o BERT, y trabajar con servicios de inteligencia artificial de plataformas como OpenAI o Hugging Face.
Además, desarrollarás flujos conversacionales inteligentes que manejan contexto e identifican intenciones de forma efectiva, integrando el asistente con APIs, diversas plataformas de mensajería (Slack, WhatsApp, Teams, entre otras) y bases de datos para asegurar una experiencia de usuario fluida y completa.
Serás responsable de la evaluación continua de los modelos mediante métricas estándares como precisión y F1, colaborando estrechamente con equipos de desarrollo, experiencia de usuario (UX) y áreas de negocio para asegurar que las soluciones implementadas estén alineadas con los objetivos estratégicos y necesidades del cliente.

Descripción del puesto y requisitos

Buscamos un/a profesional con experiencia sólida en Python y en el manejo de librerías especializadas en NLP, tales como spaCy, NLTK y Transformers. Además, es necesario contar con conocimientos prácticos en frameworks para asistentes conversacionales como Rasa o Dialogflow, así como experiencia en diseño y manejo del contexto en sistemas conversacionales.
El candidato ideal debe poseer conocimientos técnicos en la integración de APIs RESTful y en la implementación de asistentes a través de múltiples plataformas de mensajería populares, incluyendo Slack, WhatsApp y Microsoft Teams. Valoramos también la familiaridad con herramientas de contenedorización como Docker y prácticas de integración y despliegue continuo (CI/CD), así como experiencia con servicios en la nube tales como AWS, Azure o Google Cloud Platform.
Adicionalmente, se valoran las competencias en proyectos relacionados con grandes modelos de lenguaje (LLMs) como GPT o Claude, la capacidad para diseñar flujos conversacionales empáticos y funcionales, y el conocimiento en técnicas de prompt engineering para optimizar la interacción con modelos de IA generativa.

Conocimientos y habilidades deseables

Se considerará un plus la experiencia previa en proyectos que involucren grandes modelos de lenguaje (LLMs) como GPT o Claude, así como la habilidad para diseñar flujos de conversación que sean tanto funcionales como empáticos, mejorando la experiencia del usuario final.
El conocimiento en el área de prompt engineering para mejorar el rendimiento de modelos generativos, así como el dominio de herramientas para la automatización de despliegues en entornos de producción (Docker, CI/CD) y manejo de infraestructuras en la nube (AWS, Azure, GCP) también serán muy valorados.

Beneficios y entorno laboral

Ofrecemos la oportunidad de trabajar en proyectos desafiantes y de largo plazo dentro de un equipo técnico colaborativo y con un ambiente laboral excelente y amigable. Promovemos la estabilidad laboral, ofreciendo múltiples oportunidades de desarrollo profesional y crecimiento dentro de la compañía.
El trabajo es 100% remoto, idealmente dirigido a candidatos residentes en Chile, lo cual facilita la conciliación entre la vida personal y profesional sin perder el compromiso ni la comunicación estrecha con el equipo.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
MLOps Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

© Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $1000 - 1300 Full time
Content Manager
  • MAS Analytics
  • Santiago (Hybrid)
Analytics SEO SEM Data Analysis

MAS Analytics es una consultora de Datos e Inteligencia Artificial con más de 12 años de experiencia, un equipo de 60 personas apasionadas por el impacto de la IA para transformar y optimizar procesos. Somos partners de Microsoft, AWS, Google y Databricks, y trabajamos junto a organizaciones para resolver desafíos complejos mediante soluciones tecnológicas que generan resultados reales.

Official job site: Get on Board.

Principales responsabilidades

Nos encontramos en la búsqueda de un Content Manager para fortalecer nuestro equipo de contenidos, apoyando la ejecución de la estrategia comunicacional de MAS Analytics. Esta posición clave tiene como objetivo principal transformar conceptos técnicos complejos relacionados con datos, tecnología e inteligencia artificial en contenidos claros, atractivos y relevantes para nuestra audiencia especializada.
  • Redactar artículos especializados, publicaciones para redes sociales (especialmente LinkedIn) y materiales para eventos, orientados a atraer y fidelizar a audiencias objetivo.
  • Liderar iniciativas de prensa, coordinar el relacionamiento con medios de comunicación, y gestionar la difusión de mensajes institucionales.
  • Coordinar proyectos editoriales con equipos multidisciplinarios internos, garantizando la ejecución en plazo y calidad esperada.
  • Asegurar la coherencia en tono, estilo y mensajes en todas las piezas y canales de comunicación.
  • Implementar estrategias SEO y GEO para optimizar la visibilidad orgánica de los contenidos en motores de búsqueda.

Perfil y experiencia requerida

Buscamos a una persona con formación en periodismo o comunicación, con al menos un año de experiencia laboral en gestión de contenidos, preferentemente en sectores B2B, tecnológicos o de software como servicio (SaaS).

Es fundamental tener sólidas habilidades en redacción, edición y storytelling, con capacidad para simplificar temas técnicos y generar contenido atractivo y didáctico.

Esperamos que tengas conocimientos prácticos en herramientas analíticas y de optimización de contenido como Google Analytics, Semrush u otras plataformas similares.

La fluidez para trabajar en equipos colaborativos y multidisciplinarios es clave, así como un marcado interés por los temas vinculados a datos, inteligencia artificial y transformación digital.

Además, valoramos mucho la organización, planificación y priorización de tareas, así como la capacidad para manejar múltiples proyectos al mismo tiempo sin perder foco en la calidad y los objetivos estratégicos.

Habilidades y conocimientos deseables

  • Experiencia previa en la gestión de contenidos en empresas de tecnología o consultoría digital.
  • Conocimientos básicos o intermedios en SEO avanzado y marketing digital.
  • Capacidad para producir contenidos multiformato, incluyendo videos o podcasts.
  • Familiaridad con relaciones públicas y gestión de prensa técnica.
  • Conocimiento del mercado latinoamericano y sus particularidades en comunicación tecnológica.
  • Cursos o certificaciones en análisis de datos, marketing digital o escritura técnica.

Beneficios y ambiente laboral

  1. Horario flexible que se adapta a tus necesidades.
  2. Dress code relajado para un ambiente cómodo y casual 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones para impulsar tu desarrollo profesional 👨‍🎓👩‍🎓
  4. Muy buen ambiente laboral, con un equipo joven y motivado.
  5. Viernes medio día para un mejor balance vida-trabajo.
  6. Vacaciones extra para que disfrutes de tiempo libre 🌞🏝
  7. Celebraciones de cumpleaños con actividades divertidas 🎁🎊
  8. Actividades de empresa para fomentar la integración y el bienestar, como salidas y deportes 🍻⚽
Y muchos más beneficios que podrás descubrir al ser parte de nuestro equipo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage MAS Analytics pays or copays health insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
$$$ Full time
SAP Basis Consultant S/4HANA &Amp; Cloud
  • Moventi
Azure ITIL Cloud Architecture AWS
Moventi is a technology consultancy focused on helping organizations innovate and lead through technology adoption. We work with diverse multidisciplinary teams fostering continuous learning and collaboration. Our current focus includes supporting clients adopting SAP S/4HANA and cloud solutions, helping them to transform their IT landscapes for increased agility and efficiency.
The SAP BASIS team at Moventi is responsible for maintaining, upgrading, and optimizing SAP environments both on-premises and in the cloud. The projects involve working with SAP HANA Cloud (HEC) and SAP S/4HANA landscapes, managing system migrations, and ensuring seamless infrastructure operations for enterprise clients across multiple sectors.

Exclusive to Get on Board.

Role and Responsibilities

As a Senior SAP BASIS Consultant specializing in SAP S/4HANA and cloud technologies, you will be responsible for ensuring the availability, performance, and security of SAP systems for our global clients. Key duties include:
  • Performing SAP Basis activities such as system installation, configuration, upgrades, and patching, especially focusing on SAP S/4HANA and SAP HEC environments.
  • Managing infrastructure updates and applying release version upgrades to maintain system currency and compliance.
  • Handling SAP landscape management including integration of infrastructure components such as load balancers, networks, and system interfaces.
  • Executing end-to-end troubleshooting to analyze issues and design effective solutions to maintain system stability and performance.
  • Planning and executing complex migration projects—migrating SAP environments from on-premises to cloud, cloud-to-cloud, or cross-datacenter scenarios.
  • Collaborating closely with internal and client teams to align SAP BASIS activities with business needs and IT service management practices.

Required Skills and Experience

We are seeking a candidate with strong technical expertise and hands-on experience in SAP Basis administration, particularly in cloud and SAP S/4HANA environments. The ideal candidate should possess: (5-8 years of experience)
  • Extensive knowledge of IT Service Management frameworks and best practices as they apply to SAP operations.
  • Proven hands-on expertise with SAP Basis technical activities including system installations, upgrades, patch management, and landscape monitoring.
  • Experience working with SAP HEC (HANA Enterprise Cloud), SAP S/4HANA or comparable cloud SAP solutions.
  • In-depth understanding of infrastructure operations supporting SAP landscapes such as networks, interfaces, and load balancers (especially related to TLO – Tenant Landscape Operation).
  • Strong analytical and troubleshooting skills capable of diagnosing complex technical problems and developing comprehensive solutions.
  • Experience managing SAP migrations from on-premise systems to the cloud, as well as cloud-to-cloud or cross-datacenter migrations.
  • Excellent communication skills, self-motivation, and the ability to work collaboratively in a multidisciplinary environment.
Soft skills including adaptability, initiative, commitment to quality, and a proactive approach to learning new technologies and processes are highly valued.

Desirable Qualifications

Additional skills and experiences that would be advantageous include:
  • Cloud architecture and IT technical infrastructure know-how
  • Knowledge of/certification in one of Azure, AWS or GCP fundamentals
  • Experience with Migration, Upgrade projects esp. on S/4H Cloud
  • Knowledge of Project Management Fundamentals, ITIL, Lean Fundamentals is a plus
  • knowing any of the native languages on the top of it is an added advantage (Spanish/portugese)

What We Offer

  • Continuous professional growth opportunities through exposure to challenging and innovative projects.
  • Remote work flexibility enabling a healthy work-life balance.
  • Collaborative and supportive work culture focused on transparency, teamwork, and creativity.
Our central office offers a modern environment with recreational areas and agile workspaces for those who visit. Joining Moventi gives you the chance to work alongside multidisciplinary talents and innovate as part of a committed team.

Health coverage Moventi pays or copays health insurance for employees.
Computer provided Moventi provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job