No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

$$$ Tiempo completo
Site Reliability Engineering Manager (SRE)
  • OpenLoop
  • Lima (Hybrid)
Python Linux Go DevOps

OpenLoop is looking for a Site Reliability Engineering Manager (SRE) to join our team in Lima, Peru. This role will be a member of the Engineering Team.

About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Our Company Culture

We have a relatively flat organizational structure here at OpenLoop. Everyone is encouraged to bring ideas to the table and make things happen. This fits in well with our core values of Autonomy, Competence and Belonging, as we want everyone to feel empowered and supported to do their best work.

Find this vacancy on Get on Board.

About the Role

Team Leadership & Management

  • Build, lead, mentor, and grow a team of Site Reliability Engineers
  • Conduct regular 1:1s, performance reviews, and career development planning
  • Foster a culture of learning, collaboration, continuous improvement, sense of urgency and over communication.
  • Recruit, interview, and onboard new SRE team members
  • Collaborate with engineering leadership on team planning and resource allocation

Technical Strategy & Operations

  • Address and evaluate current company situation regarding applications, systems and platforms to build an SRE roadmap as well as the team headcount
  • Define and implement SRE strategy aligned with business objectives
  • Establish and maintain SLIs, SLOs, and error budgets across all services
  • Drive incident response processes and post-mortem culture
  • Lead capacity planning and infrastructure scaling initiatives
  • Oversee monitoring, alerting, and observability implementations
  • Champion automation and infrastructure-as-code practices

Cross-Functional Collaboration

  • Partner with engineering teams to improve system reliability and deployment practices
  • Work with security teams to implement secure, compliant infrastructure
  • Collaborate with the product team to balance feature velocity with reliability
  • Engage with executive leadership on infrastructure strategy and planning
  • Coordinate with vendors and external partners on critical infrastructure components

Operational Excellence

  • Ensure 24/7 system availability and rapid incident response
  • Implement and maintain disaster recovery and business continuity plans
  • Drive cost optimization initiatives while maintaining reliability standards
  • Establish and track key reliability metrics and KPIs
  • Lead efforts to reduce toil and increase automation

Requirements

Experience

  • 8+ years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • 3+ years of people management experience, preferably in technical roles
  • Proven track record of managing large-scale, distributed systems
  • Experience with incident management and post-mortem processes
  • Strong background in AWS and container orchestration

Technical Skills

  • Strong proficiency in at least one programming language (Typescript, Python, Go, etc.)
  • Deep understanding of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK)
  • Proficiency with monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, Jenkins, etc)
  • Understanding of database systems and performance optimization

Leadership & Communication

  • Advanced english (C1) fluency
  • Excellent verbal and written communication skills
  • Experience leading technical discussions and presenting to stakeholders
  • Ability to translate technical concepts to non-technical audiences
  • Strong problem-solving and decision-making capabilities
  • Experience with agile methodologies and project management

Desirable Skills

Additional Experience

  • Experience in high-growth startup environments
  • Background in regulated industries (healthcare, finance, etc.)
  • Experience with event-driven architecture, microservices and service mesh
  • Knowledge of security best practices and compliance frameworks
  • AWS Certified Solutions Architect or similar cloud certifications

Technical Depth

  • Experience with chaos engineering and fault injection
  • Knowledge of performance testing and load testing frameworks
  • Understanding of distributed tracing and application performance monitoring
  • Experience with configuration management tools (Ansible, Chef, Puppet)

Our Benefits

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Wellness program OpenLoop offers or subsidies mental and/or physical health activities.
Life insurance OpenLoop pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage OpenLoop pays or copays health insurance for employees.
Dental insurance OpenLoop pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
Beverages and snacks OpenLoop offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior AWS Cloud Engineer
  • Merapar
Python Agile Virtualization Amazon Web Services

Merapar is a European Software/Technology consultancy company that specializes in cloud (AWS and GCP) , video platforms and utilities that now also has an office in Chile serves the Americas market. We work in small agile teams and help global video power houses such as BBC, NBC Universal, Liberty Global, Discovery to get innovations to the market. The senior cloud engineer will work with a team based in the UK that works on video platforms and monitoring solutions for utility companies

Applications: getonbrd.com.

Job functions

  • Design and implement using IaC AWS based infrastructure solutions.
  • Create and maintain CI/CD pipelines.
  • Support existing cloud infrastructure.
  • Work inside Agile teams working collaboratively with other developer

Qualifications and requirements

  • Good level in English. The interviews will be in English
  • Over 8 years' experience with at least 3 years of AWS and Infrastructure as Code experience.
  • Extensive programming knowledge in Python or having experience in other languages and willing to learn Python
  • Extensive experience in cloud technologies with recent hands-on AWS knowledge.
  • Proven record of high-quality delivery and related documentation.
  • Able to take feature and functional requirements and convert them into technical solutions.
  • Resident in Chile and living in Santiago

Desirable skills

  • Extensive experience with Terraform

Conditions

  • Very experienced colleagues you can work with and learn from
  • 40 hour work week
  • 20 vacation days (and yes you can take them in the first year as well)
  • more unpaid vacation days if your manager approves
  • Macbook Pro to do your work on
  • Work from home.
  • We meet once per week to work and have lunch together
  • Paid sick days
  • A company that is willing to invest in your development

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Merapar provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Merapar gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
QA Sr
  • Moventi
  • Lima (In-office)
JavaScript Java Python QA
En Moventi, una empresa enfocada en impulsar la transformación digital mediante la innovación tecnológica, trabajamos con un equipo multidisciplinario para desarrollar soluciones que ayudan a organizaciones a liderar en sus sectores. Moventi se caracteriza por su cultura de trabajo transparente, colaborativa y enfocada en la mejora continua y el riesgo calculado. Nuestro equipo de QA juega un rol clave en garantizar la calidad de los productos para clientes del sector financiero, público y privado, asegurando que las soluciones entregadas cumplan con los más altos estándares y regulaciones aplicables.

Applications are only received at getonbrd.com.

Responsabilidades principales

Como Certificador de QA en Moventi, serás responsable de asegurar la calidad integral de los desarrollos de software, diseñando y ejecutando estrategias automatizadas que garanticen la funcionalidad, seguridad y desempeño de las aplicaciones. Entre tus funciones principales se incluyen:
  • Desarrollar y establecer criterios y estándares de calidad para el software, alineados con las necesidades de nuestros clientes y mejores prácticas industriales.
  • Revisar y analizar los requisitos funcionales y no funcionales para asegurar su claridad y viabilidad desde la perspectiva de calidad.
  • Diseñar planes de prueba exhaustivos que cubran aspectos funcionales, de rendimiento, usabilidad y seguridad.
  • Ejecutar distintos tipos de pruebas: unitarias, integración, aceptación de usuario, carga y estrés.
  • Analizar los resultados para detectar defectos y proponer mejoras que incrementen la calidad del producto.
  • Elaborar informes detallados sobre los resultados de testing y recomendaciones para su resolución.
  • Registrar y dar seguimiento a defectos hasta su correcta resolución.
  • Desarrollar y mantener casos de prueba automatizados mediante frameworks y herramientas específicas del área de QA.
  • Escribir scripts de prueba que validen funcionalidades claves y escenarios críticos de uso.
  • Integrar y operar los casos de prueba automatizados en pipelines CI/CD para pruebas automáticas en cada versión de software.
  • Ejecutar periódicamente pruebas automáticas para identificar posibles defectos o problemas de rendimiento.
  • Analizar patrones y tendencias en resultados de pruebas automatizadas para optimizar continuamente los procesos de calidad.

Perfil requerido

Buscamos profesionales con formación universitaria o técnica en Ingeniería de Sistemas, Informática, Telecomunicaciones, Industrial, Electrónica o carreras afines, que posean al menos cinco años de experiencia comprobada en actividades de pruebas automatizadas dentro del sector financiero, público o privado.
Es indispensable contar con certificación o haber completado cursos en ISTQB Foundation, que respalden su conocimiento en estándares y metodologías de testing.
Además de los conocimientos técnicos, valoramos las habilidades analíticas para interpretar resultados de pruebas, atención al detalle, capacidad para trabajar en equipo y comunicarse efectivamente con stakeholders técnicos y no técnicos. La proactividad y la orientación a la mejora continua son cualidades clave en nuestro entorno dinámico.
Experiencia en la creación de estrategias de testing automatizado, manejo de herramientas y frameworks de automatización, así como experiencia en integración de pruebas en pipelines CI/CD también son exigidas para garantizar la calidad y velocidad en ciclos de entrega de software.

Competencias y conocimientos adicionales

Serán valorados conocimientos en herramientas específicas de automatización (por ejemplo, Selenium, JUnit, TestNG, Jenkins), experiencia en pruebas de seguridad y performance, así como familiaridad con metodologías ágiles de desarrollo (Scrum, Kanban).
También consideramos una ventaja el manejo de lenguajes de scripting para pruebas como Java, Python o JavaScript, y la capacidad para implementar métricas de calidad y reportes automatizados para facilitar la toma de decisiones.

Beneficios y ambiente laboral

  • Continuas oportunidades para el desarrollo profesional y aprendizaje dentro de un ambiente multidisciplinario y colaborativo.
  • Modalidad de trabajo presencial, con flexibilidad para trabajo remoto.
  • Participación en proyectos altamente retadores que impulsan la innovación y el desarrollo de habilidades técnicas y blandas.
  • Oficina ubicada en zona céntrica con estacionamiento y áreas recreativas para mejorar la experiencia laboral y promover el trabajo en equipo.

Partially remote You can work from your home some days a week.
Health coverage Moventi pays or copays health insurance for employees.
Computer provided Moventi provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
DBA Oracle
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Oracle Linux

CodersLab es una empresa dedicada al desarrollo de soluciones dentro del rubro IT y actualmente nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Job opportunity published on getonbrd.com.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI,
Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM
(Automatic Storage Management), y Oracle Multitenant.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- conocimientos en PLSQL y tunning a sentencias SQL
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 15 meses

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Desarrollador Especialista en Automatización y DevOps
  • SONDA
  • Santiago (Hybrid)
JavaScript Java Python PHP

En SONDA, la Innovación es parte de nuestro ADN.
Miramos hacia el futuro focalizándonos en las últimas tendencias y noticias sobre innovación, tecnologías con impacto y sostenibilidad.
Conocemos los desafíos y demandas de la región y contamos con un amplio portafolio de soluciones de negocio especializadas en las principales industrias del mercado.

Vive la experiencia SONDA en nuestra división de Data Center, en la unidad de Delivery.

Send CV through Get on Board.

· Programar la solución de software de acuerdo a las normas y herramientas de la empresa, con el fin de cumplir los estándares de calidad definidos en el acuerdo previo de nivel de atención al cliente, garantizando un servicio de excelencia.

· Ejecutar funciones de acuerdo al software proporcionado con las especificaciones de diseño.

· Analizar los requisitos del sistema y los procesos de negocio existentes y sistemas de información.

· Construir mejoras y resolver errores.

· Construir y ejecutar pruebas unitarias y planes de pruebas unitarias.

Requerimientos del cargo

· Título profesional correspondiente al área TI.

· Desde 3 años de experiencia en cargos similares.

· Sólida experiencia en Linux y arquitecturas orientadas a microservicios

· Conocimientos en Cloud Computing.

· Experiencia con bases de datos relacionales (SQL Server, Oracle) y NoSQL (MongoDB).

· Conocimientos de programación backend y frontend con lenguajes: JavaScript, Python, PHP, Java, NodeJS, React y otros

· Experiencia en despliegue e integración continua CI/CD con alguna herramienta como; Jenkins, GitLab CI/CD, Azure DevOps, GitHub Actions, ArgoCD

· Experiencia en integración de aplicaciones y tecnologías: Cloud, SaaS, API Management.

· Manejo de GIT / GitHub

· Deseable experiencia en desarrollo de aplicaciones que integren o interactúen con soluciones de Inteligencia Artificial (IA), como modelos de lenguaje, sistemas de recomendación o APIs de IA.

· Deseable experiencia en herramientas de automatización de IaC como Asible, Terraform, CloudFormation, entre otras.

Opcionales

· Capacidad para colaborar con desarrolladores y administradores de sistemas en la definición de arquitecturas óptimas de procesamiento, contenedores y bases de datos.

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2300 - 2500 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Python Linux DevOps Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPS para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

Ingeniero de Plataforma con sólida experiencia en la gestión e implementación de infraestructura como código (IaC) y automatización de plataformas híbridas y multicloud. Especialista en Oracle Cloud Infrastructure (OCI), con dominio avanzado de Oracle Linux (8 y 9), incluyendo hardening, tuning y troubleshooting de sistemas en
entornos productivos críticos.
Competente en el diseño y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD, y Kong API Gateway, garantizando despliegues seguros, reproducibles y escalables. Fuerte orientación a la seguridad y gestión de secretos mediante HashiCorp Vault, cumpliendo estándares como PCI-DSS
y buenas prácticas de ciberseguridad.
Habilidad avanzada en scripting con Bash y Python para automatización de procesos, integración de pipelines y monitoreo. Experiencia práctica en diseño de pipelines CI/CD robustos, infraestructura autoservicio y GitOps.
Ideal con experiencia en otros motores como MSSQL, Postgresql y mysql

Requerimientos del cargo

Stack Principal
Cloud: Oracle Cloud (OCI), incluyendo Networking, IAM, Compute, VCN, Object
Storage, Vulnerability Scanning, WAF
Linux: Oracle Linux 8/9 (hardening, performance tuning, SELinux, systemd)
IaC & Automatización: Terraform (módulos reutilizables, workspaces, state remotos),
GitLab CI, ArgoCD
Contenedores: Docker, Kubernetes, Helm, Argo Workflows, Kong Ingress
Seguridad: HashiCorp Vault, integración con OCI IAM, gestión de tokens y políticas
Scripting: Bash avanzado, Python (scripts para automatización, integración con APIs
REST)
Docker: gestion de imagenes docker.

Fortalezas

Implementación de infraestructura reproducible y versionada en OCI con Terraform.
Automatización de despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en
GitLab.
Integración segura de servicios mediante Kong y políticas personalizadas.
Gestión de secretos y credenciales dinámicas en entornos sensibles usando Vault.
Experiencia en entornos bancarios y regulados, con foco en cumplimiento y resiliencia.

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 15 meses con renovacion

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Senior Infrastructure Engineer (AWS)
  • Niuro
Python Linux DevOps Virtualization
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
We empower projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. With a strong focus on professional growth, Niuro offers continuous training in technical and soft skills as well as leadership development to ensure success in innovative and challenging projects. We also manage all administrative tasks including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Joining Niuro means working within a collaborative environment where talent can grow and reach its full potential, participating in impactful and technically rigorous industrial data projects that drive innovation and professional growth.

Applications: getonbrd.com.

Technical Snapshot & Key Responsibilities

  • Architect and maintain multi-account infrastructure in AWS using Terraform, including reusable modules, remote state management, drift detection, and enforcement of security and cost policies.
  • Operate Kubernetes/EKS clusters and large-scale EC2 fleets with features such as autoscaling, right-sizing, and blue/green deployments (surge and rollback).
  • Automate golden AMI pipeline creation using tools like Packer and AWS Systems Manager (SSM).
  • Manage critical Windows Server workloads and IIS in production: hardening, patching, centralized log management, and scaling IIS behind ALB/NLB.
  • Implement end-to-end observability solutions, unifying logs, metrics, and traces across CloudWatch, OpenSearch/ELK, Datadog, FluentBit, and Winlogbeat, creating dashboards and alerts that reduce 5xx errors and accelerate root cause analysis.
  • Conduct infrastructure sweeps and tuning to improve reliability, fix misconfigurations, optimize RDS (failover, replicas, connection management) and FSx, and enforce checks through CI/CD pipelines.
  • Design and execute performance readiness testing including load and stress tests with tools like k6, Locust, JMeter, and Python scripts to validate scaling and eliminate bottlenecks before peak traffic periods.

Requirements

  • 5+ years experience in DevOps, Infrastructure Engineering, or Site Reliability Engineering (SRE) roles.
  • Advanced expertise in AWS services including RDS, FSx, CloudWatch, EC2, and ELB.
  • Hands-on experience with Terraform and Kubernetes, strongly preferred expertise with EKS.
  • Practical production experience managing Windows Server and IIS workloads on AWS including patching, scaling, and integrating IIS logs.
  • Expertise in EC2 scaling strategies and golden AMI image workflows.
  • Proven skills deploying and managing observability stacks that provide actionable alerts and diagnostics.
  • Strong background in performance and load testing methodologies.
  • Proficient scripting skills in Python and Bash; PowerShell experience is a plus.
  • Excellent communication skills, systems thinking ability, and meticulous attention to detail.

Nice-to-Have Skills

  • Experience with policy-as-code tools such as Open Policy Agent (OPA) or Sentinel.
  • Knowledge of service mesh or serverless architecture patterns.
  • Expertise in security automation frameworks including CIS benchmarks and AWS Inspector.
  • Familiarity with cost-optimization tooling in cloud environments.
  • Leadership experience managing high-traffic incidents and operational response.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3300 Tiempo completo
Ingeniero/a DevOps
  • Magnet
Python Linux Go DevOps

Magnet es una empresa de ingeniería enfocada en usar software para entregar soluciones de alta calidad a los problemas de nuestros clientes. Nos gusta entender sus procesos y su negocio para así entregarles el máximo valor posible.

Hace 13 años comenzamos desarrollando pequeñas plataformas de software, pero hoy trabajamos en grandes proyectos, como gestionar las limitaciones operacionales de una aerolínea completa o digitalizar el proceso de migraciones de un país.

Si bien somos bastante exigentes en términos técnicos, ya que tenemos un gran enfoque en la ingeniería, también nos dedicamos a pasarlo bien cada vez que podemos. En ese sentido, nos esforzamos muchísimo en tener una cultura abierta, que le permita a todas/os crecer profesionalmente y sentirse bien en su trabajo, no solo porque entendemos que entregar productos de calidad está directamente relacionado a un equipo feliz, si no que porque ese es el tipo de empresa que decidimos formar.

Apply at the original job on getonbrd.com.

Propósito del cargo

¡Únete a nuestro equipo como Ingeniero/a DevOps y lidera la transformación cloud!

Estamos buscando a alguien con experiencia para reforzar nuestro equipo, necesitamos dos personas que realicen migraciones de entornos on-premise a la nube, garantizando una transición fluida y eficiente.

Responsabilidades y habilidades

  • Planificar y ejecutar migraciones estratégicas de infraestructura y aplicaciones desde entornos on-premise a plataformas cloud.
  • Diseñar e implementar soluciones robustas de orquestación y automatización utilizando Kubernetes y OpenShift Cloud.
  • Administrar y optimizar entornos virtualizados con VMware, preparándolos para la transición a la nube.
  • Implementar y mantener prácticas de Integración Continua (CI) y Entrega Continua (CD) para agilizar los despliegues.
  • Garantizar la seguridad y el cumplimiento normativo de la infraestructura y los datos migrados en la nube, aplicando las mejores prácticas y estándares.
  • Identificar y resolver problemas técnicos complejos relacionados con la infraestructura, las migraciones y la operación en la nube.
  • Colaborar activamente con equipos de desarrollo, operaciones y seguridad para fomentar una cultura DevOps.

Requisitos mínimos

  • Experiencia mínima de 2 años o más como Ingeniero/a DevOps.
  • Experiencia trabajando con OpenShift Cloud.
  • Conocimiento avanzado y experiencia práctica con Kubernetes.
  • Experiencia en administración y operación de entornos VMware.
  • Conocimiento y experiencia práctica en plataformas cloud (AWS, Azure, GCP).
  • Experiencia con herramientas de Infraestructura como Código (IaC) como Terraform o Ansible.
  • Habilidades de scripting avanzadas (Python, Bash, Go) para automatización y resolución de problemas.

Requisitos deseables

  • Certificaciones en plataformas cloud (AWS, Azure, GCP).
  • Experiencia con metodologías ágiles (Scrum, Kanban).
  • Conocimiento de principios de DevSecOps.

Beneficios

Nos esforzamos en crear un ambiente de trabajo y una cultura que potencie a nuestro equipo. Tenemos una organización horizontal en la que hay espacio para el aporte de todos al tomar decisiones. Fomentamos una cultura abierta para tener feedback constante por parte del equipo y así mejorar cuando nos equivocamos.

Celebramos los cumpleaños y planificamos actividades de encuentro de equipo durante el año. También el equipo ha creado varios "clubes secretos" que organizan actividades por su cuenta (after office, salidas al cine, etc).

Además:

  • Seguro complementario de salud, dental y catastrófico.
  • Descuentos en farmacias y convenios con instituciones.
  • Espacios de capacitación, con acceso a cursos y material.
  • Inducciones para asumir tus responsabilidades.
  • Soporte práctico y teórico, al cual podrás acudir en cualquier momento.
  • Actividades anuales, como el aniversario y el paseíto de fin de año.

Internal talks Magnet offers space for internal talks or presentations during working hours.
Life insurance Magnet pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Magnet pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Magnet covers some computer repair expenses.
Dental insurance Magnet pays or copays dental insurance for employees.
Computer provided Magnet provides a computer for your work.
Personal coaching Magnet offers counseling or personal coaching to employees.
Shopping discounts Magnet provides some discounts or deals in certain stores.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Instructor Java DevOps
  • Skillnest
JavaScript Java Python SQL

Skillnest es una academia de programación con una presencia global, originada en Silicon Valley y con más de 15 años de experiencia.
Llevamos cuatro años ofreciendo nuestros programas en Latinoamérica y nos destacamos por un enfoque flexible, orientado a resultados y centrado en la toma de decisiones basadas en datos.
Como equipo joven, estamos comprometidos con transformar vidas a través de la educación en programación y apoyamos activamente la empleabilidad de nuestros graduados.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Como instructor del programa Java DevOps, serás responsable de impartir clases en modalidad remota y sincrónica, utilizando plataformas como Zoom y Discord para facilitar la interacción directa con los estudiantes.

Tu labor se centrará en impartir el plan de estudios diseñado a través de la plataforma de estudio de Skillnest, el cual está diseñado para garantizar una experiencia de aprendizaje integral. Deberás guiar a los estudiantes a través de cada módulo, fomentando el uso de buenas prácticas de programación, y asegurando que puedan avanzar también de forma asíncrona, con acceso permanente a materiales de estudio y seguimiento de su progreso calendarización de contenidos establecida.

Durante el desarrollo del programa, serás responsable de guiar el aprendizaje y aplicación de las siguientes tecnologías y conceptos clave:

  • Bases de Datos Relacionales y No Relacionales (SQL & NoSQL)
  • Spring Boot (Fundamentos, estructura y configuración)
  • Pruebas Unitarias (JUnit, Mockito)
  • Arquitectura Hexagonal
  • WebFlux (Microservicios reactivos con Spring)
  • Docker (Contenerización de aplicaciones)
  • Spring Cloud (Comunicación entre microservicios)
  • Buenas prácticas en Spring Boot (Documentación, manejo de excepciones, estructuración de código)
  • Spring Security (Autenticación y autorización)
  • Servicios en la Nube con AWS:
    • Teórico: fundamentos para la toma de decisiones técnicas
    • Práctico: despliegue de aplicaciones basadas en microservicios
  • Principios y herramientas de DevOps

Requerimientos del cargo

1. Experiencia Técnica

  • Experiencia comprobada en arquitectura de software en la nube, con capacidad para aplicar enfoques profesionales en el desarrollo de soluciones distribuidas.
  • Sólida trayectoria en desarrollo de software y programación, con enfoque en buenas prácticas y metodologías modernas.
  • Manejo fluido de herramientas y conceptos asociados al ecosistema DevOps y despliegue en entornos productivos.

2. Habilidades Docentes

  • Experiencia mínima de 1 año enseñando al menos 3 de las siguientes 7 áreas de conocimiento:
    • Programación orientada a objetos
    • Lenguajes de scripting (Python, Java, JavaScript, entre otros)
    • Bases de datos (relacionales y no relacionales)
    • Ciberseguridad
    • Conectividad y redes (AWS, Google Cloud, Microsoft Azure)
    • DevOps
    • Ciencia de datos y aprendizaje automático

3. Habilidades Complementarias

  • Nivel de inglés intermedio o avanzado, tanto escrito como leído.
  • Disponibilidad para participar en una capacitación previa al inicio del curso, con el fin de familiarizarse con el plan curricular, herramientas institucionales y dinámicas pedagógicas.
  • Dedicación de 10 horas de instrucción semanales, distribuidas entre sesiones sincrónicas de clases y taller práctico, solución de dudas a través de Discord.
  • Dedicación para trabajo administrativo de 4 horas semanales para preparación de clases, revisión de actividades prácticas, desafíos técnicos y seguimiento a estudiantes.

Condiciones

  • Acceso al contenido de los programas de Skillnest para capacitación personal.
  • Capacitación sobre la metodología de enseñanza de Skillnest antes de iniciar el bootcamp.
  • Trabaja remoto desde cualquier lugar del mundo.
  • Capacidad de crecimiento en el área de educación en desarrollo de software y programación. No queremos que impartas sólo un programa de estudio. Dependiendo de tu experiencia podrías impartir más bootcamps.

Si eres un apasionado de la programación, la enseñanza y buscas un entorno de trabajo desafiante. Únete a Skillnest y sé parte de la revolución educativa en programación

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Senior Load Tester – AWS & Integrations
  • Niuro
JavaScript Python REST API Linux
Niuro connects projects with elite tech teams to collaborate with leading U.S. companies. This role involves working on AWS-hosted systems, Aestiva-based applications, and third-party integrations, focusing on load and performance testing. The project emphasizes creating realistic load scenarios, identifying bottlenecks, and optimizing scalability and performance. The work supports continuous integration and deployment pipelines to enhance system reliability and efficiency and is tailored for diverse distributed environments.

Apply only from getonbrd.com.

About the Role:

We’re looking for a Senior Load Tester to design and execute load testing strategies for systems hosted on AWS, applications built with Aestiva framework, and various third-party integrations. Your main goal will be to simulate real-world usage through custom scripting, identify system performance bottlenecks, and ensure that applications scale reliably under stress.
Your responsibilities will include automating test executions, monitoring key system metrics such as CPU, memory, I/O, latency, and throughput, and working closely with engineering and DevOps teams. You'll integrate testing results and detailed reports into CI/CD pipelines, helping to drive continuous performance improvements and operational excellence.

Requirements:

  • Minimum 5 years of experience in performance and load testing within distributed systems environments.
  • Strong scripting skills using tools such as JMeter, Gatling, k6, along with languages like Python, Bash, or JavaScript.
  • Hands-on experience with AWS services including EC2, RDS, Load Balancers, and CloudWatch.
  • Familiarity with REST APIs, JSON, and asynchronous workflows.
  • Experience working with CI/CD tools like TeamCity, Jenkins, or GitLab CI, and monitoring platforms such as Grafana and New Relic.
  • Proven ability to analyze logs, traces, and performance metrics for diagnosis and troubleshooting.
  • Conversational English proficiency to effectively collaborate with US-based teams.

Nice to Have:

  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Experience performing security and failover testing to ensure robustness.
  • Background in regulated industries including fintech or government technology sectors.

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero QA
  • MetroPago
  • Santiago (Hybrid)
Python Agile Git SQL
MetroPago trabaja para conectar personas con soluciones de movilidad más ágiles, accesibles y sostenibles, facilitando experiencias de transporte enfocadas en la eficiencia y la cercanía. El proyecto busca transformar y mejorar la forma en que los usuarios se mueven, impulsando un sistema integrado y centrado en las personas que contribuye a ciudades más conectadas y sustentables.

This job is exclusive to getonbrd.com.

Objetivos del Cargo:

El Ingeniero QA será responsable de garantizar la calidad y el correcto funcionamiento de las soluciones tecnológicas desarrolladas en MetroPago. Sus principales funciones incluyen:

  • Definir e implementar estrategias de prueba desde el análisis de requerimientos y criterios de aceptación.
  • Identificar los tipos de pruebas necesarias: funcionales, no funcionales, integración, smoke, sanidad y regresión.
  • Gestionar todo el ciclo de defectos: reportar, monitorear y verificar desde la detección hasta el cierre.
  • Colaborar en células ágiles participando en refinamientos, kickoffs y análisis temprano de riesgos y defectos durante el ciclo de vida del software.
  • Proponer mejoras en procesos, ampliar cobertura de pruebas y adoptar nuevas tecnologías.
  • Diseñar, desarrollar y mantener frameworks de automatización para pruebas funcionales, ejecutando y analizando los resultados según los planes de prueba de cada funcionalidad.
  • Generar reportes de calidad y KPIs relacionados con el desempeño de las pruebas, promoviendo iniciativas de mejora continua.

Descripción del Puesto:

Buscamos un Ingeniero QA con experiencia en calidad de software que posea un enfoque analítico y meticuloso para asegurar la excelencia de nuestras soluciones tecnológicas. La persona ideal debe tener conocimientos sólidos en la definición y ejecución de estrategias de prueba diversas, desde pruebas manuales hasta automatizadas, y en herramientas para la gestión de defectos y automatización. Es fundamental que se adapte a trabajar de forma colaborativa en equipos ágiles, comunicándose eficazmente con desarrolladores, equipos de producto y operaciones para identificar oportunidades de mejora y garantizar entregables con altos estándares.
Además, valoramos habilidades blandas como la proactividad para proponer mejoras, capacidad de análisis para identificar riesgos tempranos y orientación al detalle en la documentación y reporte de defectos. La experiencia previa en el diseño y mantenimiento de frameworks de automatización será clave para el éxito en el rol.

Competencias Deseables:

  • Experiencia en técnicas y tipos de pruebas de Performance (Estrés y Volumen)
  • Herramientas: K6 o Locust.
  • Manejo de Contenedores, Entornos Virtuales y Ejecución de pruebas en pipelines.
  • Observabilidad de Producto: Experiencia con logs, dashboards y alertas usando herramientas como Grafana, Kibana, New Relic.
  • Certificación ISTBQ Foundation Level
  • Automatización de Pruebas Funcionales: Dominio de frameworks como Playright, Appium y Cypress. Experiencia automatizando pruebas de interfaz y backend.
  • Manejo de Herramientas de Testing y Lenguajes: Python como lenguaje de preferencia. Herramientas como pyTest, Behave, Postman y Newman.
  • Diseño y Gestión de Casos de Prueba: Manejo de Herramientas en la gestión de Pruebas y defectos (Jira: xRail, qAlity Plus, Zephyr o ALM).
  • Experiencia en el uso práctico de sistemas de control de versiones (git con Azure repos, Gitlab o Github)
  • Experiencia en el uso de base de datos Relacionales y No Relacionales para realizar consultas.

Beneficios:

  • Modelo híbrido de trabajo, con flexibilidad y reducción de jornada los viernes hasta las 14 horas.
  • Seguro Complementario Full para el equipo.
  • Vacaciones+: hasta 6 días extras según antigüedad, además de días especiales para momentos importantes.
  • MetroPass: tarjeta para acceder a la Red Metro — nuestra propia Bip!
  • Aguinaldos, Giftcards y beneficios adicionales exclusivos de MetroPago.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MetroPago offers space for internal talks or presentations during working hours.
Life insurance MetroPago pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Health coverage MetroPago pays or copays health insurance for employees.
Dental insurance MetroPago pays or copays dental insurance for employees.
Computer provided MetroPago provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Shopping discounts MetroPago provides some discounts or deals in certain stores.
Vacation over legal MetroPago gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal MetroPago offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6500 Tiempo completo
Platform Engineer
  • DynWrk
Python Linux Go DevOps
DynWrk builds and operates dedicated software engineering teams in Chile for U.S. companies, attracting top talent in the Americas. We specialize in building, managing, and training tech teams for global impact.
Vivint is a leading technology company redefining the home experience, leveraging cutting-edge technology and innovative services to enable safer, smarter, and more sustainable homes for millions of users.

Exclusive offer from getonbrd.com.

Job functions

At Vivint, you will join a forward-thinking team dedicated to shaping the future of smart homes for millions of users. We seek a skilled Platform Engineer to build, maintain, and scale foundational systems for our software development lifecycle. This role focuses on creating reliable, scalable, and efficient infrastructure and tooling, enabling rapid and safe software delivery. Key responsibilities include:

  • Design, build, and maintain internal platforms, CI/CD pipelines, infrastructure-as-code (IaC), and automation tools.
  • Collaborate with DevOps, SREs, developers, and QA to enhance developer experience and streamline deployments.
  • Manage cloud infrastructure (e.g., AWS, GCP, Azure) and container orchestration systems (e.g., Kubernetes, ECS).
  • Monitor and improve system performance, reliability, and scalability.
  • Implement best practices in security, compliance, observability, and disaster recovery.
  • Write technical documentation and guide on platform tool usage.
  • Support incident response and root cause analysis for platform-related issues.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Engineering, or a related technical field.
  • 5+ years of experience in platform engineering, DevOps, or infrastructure engineering.
  • Proficiency with infrastructure-as-code tools (e.g., Terraform, Ansible).
  • Strong knowledge of CI/CD pipelines and tools (e.g., Bitbucket, Jenkins, ArgoCD).
  • Extensive experience with containerization and orchestration (e.g., Docker, Kubernetes).
  • Proven experience with major cloud services (e.g., AWS, Azure).
  • Strong programming/scripting skills in Python, Go, Bash, or similar.
  • Excellent written and verbal English communication skills.

Conditions

  • Opportunities for professional development within an international team.
  • Competitive salary.
  • Full-time position with a Chilean employment agreement (Contrato de trabajo).

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero DevOps SRE (Chile Perú Colombia)
  • Adecco
Python DevOps Continuous Deployment Kubernetes
El cliente con más de 15 años dedicado a transformar el mundo a través de la tecnología mediante soluciones de Analytics, Desarrollo, Automatización y otros servicios, con presencia en España y Latinoamérica, está incorporando un Ingeniero DevOps - SRE a su equipo. Esta empresa se especializa en ofrecer soluciones tecnológicas que impulsan la innovación y la eficiencia operativa en diversas industrias, manteniéndose a la vanguardia mediante el uso de tecnologías modernas y metodologías agiles.

Apply directly from Get on Board.

Responsabilidades del cargo

  • Asegurar que los sistemas y servicios de la organización sean altamente disponibles, escalables, eficientes y confiables.
  • Desarrollar flujos de autoremediación y obtener eficiencia operativa.
  • Implementar procesos robustos de mejora continua.
  • Coordinar la respuesta frente a incidentes, incluyendo identificación, diagnóstico y resolución de problemas.
  • Gestionar el equilibrio entre el lanzamiento de nuevas características y mantener la estabilidad del sistema.
  • Fomentar la colaboración interdisciplinaria dentro del equipo y otras áreas.
  • Promover el cambio cultural hacia SRE (Site Reliability Engineering).
Herramientas y tecnologías: GitHub, Dynatrace, Draw.io, JMeter, Visual Studio, Azure Cloud, Citrix, Office.
Tecnologías clave con nivel de manejo:
  • GitHub Actions [Avanzado]
  • Dynatrace [Avanzado]
  • Arquitectura de Sistemas [Avanzado]
  • Kubernetes y Contenedores [Avanzado]
  • Programación en Python, TypeScript, otros [Intermedio]
  • Infraestructura como código (Ansible, Terraform) [Intermedio]
  • DevSecOps [Intermedio]
  • Cloud Azure [Intermedio]
  • CI/CD [Intermedio]
  • Scripting en Bash [Intermedio]
  • Git [Intermedio]

Requisitos del puesto

Buscamos un profesional con mínimo 2 años de experiencia como Ingeniero DevOps, Ingeniero DevSecOps, SRE o en roles similares. Es indispensable ser egresado de las carreras universitarias de Ingeniería de Sistemas, Ingeniería Informática o Ingeniería de Software.
Se valoran habilidades interpersonales sólidas, con enfoque en el trabajo en equipo y buen relacionamiento. Buscamos a alguien motivado por impulsar el cambio cultural hacia la filosofía SRE, que tenga compromiso con la eficiencia operativa y la mejora continua.
Entre las competencias técnicas se requieren conocimientos avanzados en manejo de herramientas y tecnologías como GitHub Actions, Dynatrace, arquitectura de sistemas, Kubernetes, y contenedores. También es relevante el uso de lenguajes de programación Python y TypeScript, infraestructura como código con Ansible y Terraform, y experiencia en DevSecOps y CI/CD, entre otros.

Competencias y habilidades valoradas

Además de los requisitos técnicos y académicos, valoramos la experiencia en ambientes híbridos y dinámicos, capacidad para coordinar respuesta a incidentes bajo presión, y compromiso con la cultura DevOps/SRE. La capacidad para colaborar interdisciplinariamente y adaptarse a procesos de mejora continua es un plus importante.
Conocimientos adicionales en automatización avanzada, monitoreo y optimización continua, así como experiencia trabajando con plataformas de nube Azure en un contexto global, también serán apreciados.

¿Qué te ofrecemos?

Contrato indefinido y planilla 100% desde el primer día.

Trabajo remoto (debes ser residente de Chile, Perú o Colombia)

Cobertura EPS 100% (Plan Esencial) y Seguro de Vida Ley.
Oportunidades de desarrollo profesional y crecimiento.
Acceso a plataforma de capacitación online gratuita.
Mediodía libre por cumpleaños.
Descuentos y convenios en educación, gimnasio y más.
Formar parte de una empresa internacional líder en consultoría y servicios TI.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2700 - 3500 Tiempo completo
DevOps
  • coderslab.io
JavaScript Python Redis Node.js
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPSpara unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job offer is available on Get on Board.

Funciones del cargo

• Diseñar, implementar y mantener pipelines de integración y entrega continuas
(CI/CD).
• Colaborar con equipos de desarrollo para integrar prácticas DevOps en el ciclo de
vida del desarrollo de software.
• Automatizar procesos de infraestructura y despliegue de aplicaciones.
• Administrar y mantener la infraestructura en la nube y servidores.
• Monitorear y mejorar la disponibilidad, rendimiento y seguridad de los sistemas.

Requerimientos del cargo

• Dominio en administración de servicios en la plataforma AWS, incluyendo
Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, IAM Role, S3, EC2, ECS, Secret
Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API
Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions.
• Experiencia en construcción de infraestructura como código (IaC) con Terraform y
Cloudformation (herramientas excluyentes).
• Experiencia en despliegue de aplicaciones móviles offline.
• Experiencia con GitHub como gestor de código fuente y GitHub Actions como
herramienta de despliegue.
• Experiencia en análisis de código estático con SonarCloud.
• Experiencia en desarrollo de código con Python y Node.js con objetivo
operacional.
• Conocimiento en lenguaje SQL y gestión de bases de datos transaccionales.
• Habilidades de trabajo en equipo, autogestión, proactividad y comunicación
efectiva.
• Conocimientos en bases de datos NoSQL y bases de datos embebidas

POSTULAR VÍA WEB Ver trabajo
Gross salary $2100 - 3000 Tiempo completo
Ingeniero Soporte Cloud y DevOps
  • Agilesoft SpA
Python Linux DevOps Virtualization

Agilesoft SpA es una pequeña empresa especializada en el desarrollo de software web y móvil, apasionada por las nuevas tecnologías, la innovación y un ambiente laboral agradable. Actualmente, buscamos expandir nuestro equipo técnico con la incorporación de dos Ingenieros de Soporte especializados en Cloud, DevOps, Kubernetes y Linux, que se sumen al equipo de operaciones y soporte de infraestructuras críticas. Estos profesionales serán clave para asegurar la estabilidad, disponibilidad y escalabilidad de las plataformas que soportan nuestros proyectos, aplicando prácticas de Site Reliability Engineering (SRE) y solución avanzada de problemas técnicos.

Official source: getonbrd.com.

Funciones

  • Implementar, administrar y optimizar infraestructuras en la nube utilizando tecnologías como Kubernetes (K8S) y herramientas DevOps.
  • Proporcionar soporte avanzado en Linux para entornos productivos, incluyendo diagnóstico, troubleshooting y solución de incidentes complejos.
  • Monitorear y garantizar la disponibilidad y rendimiento de los servicios cloud, aplicando las mejores prácticas de SRE.
  • Colaborar en la automatización de procesos para mejorar la eficiencia operativa y la entrega continua.
  • Documentar procesos, soluciones y participar en mejoras continuas del ciclo de vida del software y la infraestructura.
  • Trabajar colaborativamente con equipos de desarrollo y operaciones para asegurar una integración fluida y el despliegue seguro de aplicaciones.

Perfil requerido

Buscamos dos ingenieros con experiencia intermedia a avanzada en soporte y operación de infraestructuras cloud. Deberán tener conocimientos sólidos y demostrables en Kubernetes, Linux y metodologías DevOps. Se valorará experiencia en troubleshooting avanzado, monitoreo con herramientas modernas y principios de Site Reliability Engineering (SRE).

Es imprescindible que sean profesionales proactivos, con pensamiento analítico y capacidad para resolver problemas complejos bajo presión. Deben contribuir a mejorar la estabilidad y escalabilidad de los sistemas, trabajando con mentalidad colaborativa y comunicándose claramente en equipo. Buscamos personas apasionadas por la tecnología, orientadas al aprendizaje continuo y que disfruten aportar en un ambiente dinámico y flexible.

  • Experiencia práctica en administración de Linux (preferentemente distribuciones como Ubuntu, CentOS o Debian).
  • Dominio de Kubernetes y orquestación de contenedores.
  • Manejo de herramientas DevOps y CI/CD.
  • Capacidad para identificar y resolver problemas de infraestructura y aplicaciones en producción.
  • Conocimientos de cloud pública (AWS, Azure o Google Cloud) serán un plus.
  • Habilidades para documentar y estandarizar procesos.

Habilidades y conocimientos deseables

  • Experiencia con herramientas de monitoreo como Prometheus, Grafana o similares.
  • Conocimientos en scripting (Bash, Python) para automatización.
  • Familiaridad con la implementación de políticas de seguridad en entornos cloud.
  • Experiencia en metodologías ágiles y trabajo en equipos multidisciplinarios.
  • Certificaciones relacionadas a Kubernetes, DevOps o Cloud.

Condiciones

En Agilesoft ofrecemos un ambiente laboral grato, flexible, entretenido y dinámico, ideal para desarrollarse profesionalmente mientras se disfruta del trabajo en equipo. Proporcionamos computador para el trabajo, contrato indefinido y modalidad 100% remota, permitiendo trabajar desde cualquier ubicación.

Además contamos con beneficios de caja de compensación Los Andes para Chile, seguro complementario de salud y dental para empleados chilenos, y seguro Yunen para colaboradores en República Dominicana.

Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $750 Tiempo completo
Práctica Desarrollador Ops
  • Pulso Escolar
  • Santiago (Hybrid)
JavaScript Ruby Ruby on Rails Python
Pulso Escolar es nuestra plataforma que ayuda a colegios a gestionar su convivencia y comunidad usando datos. Para hacerlo levanta información desde estudiantes, apoderados y profesores usando encuestas en más de 250 colegios sobre temas complejos de medir como el bienestar emocional, experiencia en clases, clima escolar y otros.
¿Cómo es trabajar en Pulso Escolar?
  • Usamos metodologías ágiles y desarrollo de primer nivel
  • Tenemos flexibilidad horaria
  • Usamos y hacemos tecnología de punta
  • No tenemos código de vestimenta
  • Todos colaboramos en el aprendizaje de los demás
  • Somos parte del ecosistema Platanus Ventures

Apply directly on the original site at Get on Board.

¿Qué hace un practicante en el equipo de Ops de Pulso Escolar?

Te sumarás al equipo de operaciones de Pulso Escolar, en una posición única donde desarrollarás herramientas internas que tú mismo y el resto del equipo de Ops utilizarán. En este rol:

  1. Trabajarás en ciclos de Shape up de 2 semanas exclusivos para el equipo de Ops
  2. Alternarás entre desarrollar herramientas para optimizar operaciones y dar soporte a clientes
  3. Harás revisión de código y recibirás retroalimentación de otros desarrolladores

Una experiencia exitosa considera que el practicante:

  1. Se sumó al equipo de manera armónica y tiene buenas relaciones interpersonales
  2. Logra entender las necesidades del equipo de Ops y desarrollar soluciones que realmente mejoren su trabajo diario
  3. Da soporte a clientes de manera satisfactoria

Cronograma

1ra semana: Inducción y familiarización con el equipo de Ops y sus procesos, tomarás tareas simples que te permitan entender las necesidades operativas y nuestra arquitectura.

2da semana: Comenzarás a involucrarte en la atención de requerimientos de clientes.

3ra y 4ta semana: Comenzarás tu primer ciclo de Shape up de 2 semanas, desarrollando herramientas internas

2do mes: Ya te habrás subido al carro con los ciclos de Shape up y la atención de requerimientos de clientes

Acá cuenta su experiencia Trini que hizo la práctica con nosotros.

Requerimientos del cargo

  • Tener experiencia desarrollando con lenguajes como Ruby, Python y JS
  • Tener conocimientos en desarrollo web con librerías reactivas (ejemplos Vue o React)
  • Tener conocimientos de frameworks de backend como Ruby on Rails
  • Disponibilidad de al menos dos meses (si tu práctica oficial es de un mes, te pedimos que te quedes dos)

Suma, pero no excluye

  • Experiencia con Google Cloud
  • Haber tomado cursos de desarrollo de software

Beneficios

  • Modalidad híbrida que permite trabajar desde casa algunos días.
  • Un excelente ambiente laboral con un enfoque colaborativo donde las ideas son lo más importante.
  • Café de alta calidad y actividades sociales en la oficina.

En Pulso Escolar, valoramos a cada miembro de nuestro equipo y fomentamos un entorno estimulante y de aprendizaje.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

© Get on Board. All rights reserved.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Cloud/DevOps Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python NoSQL DevOps Virtualization
En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas, trabajando para clientes de sectores financieros, seguros, retail y gobierno. Nuestro enfoque está en el diseño y desarrollo de soluciones, administración de portafolios y outsourcing de profesionales, siempre bajo metodologías ágiles y con un fuerte alineamiento con las necesidades de los clientes. Este proyecto en particular tiene una duración inicial de 6 meses con posibilidad de extensión, y se basa en tecnologías punteras de la nube, automatización e infraestructura como código, enfocándose en ambientes cloud modernos y escalables.

Apply exclusively at getonbrd.com.

Responsabilidades principales

  • Participar en el desarrollo, implementación y mantenimiento de infraestructura en Google Cloud Platform (GCP), utilizando herramientas como BigQuery, Cloud Run, GKE y Cloud Scheduler.
  • Automatizar procesos y gestionar infraestructura mediante Terraform, asegurando la correcta gestión de recursos y estados.
  • Configurar y mantener pipelines CI/CD en GitLab, promoviendo la integración y entrega continua de software.
  • Administrar contenedores usando Docker y orquestación con Kubernetes para asegurar despliegues consistentes y escalables.
  • Gestionar bases de datos SQL y NoSQL, así como servicios serverless para optimizar la arquitectura del proyecto.
  • Trabajar en entornos Unix/Linux, asegurando la estabilidad y buen funcionamiento de la infraestructura.
  • Documentar procesos técnicos y colaborar activamente con el equipo para proponer mejoras continuas y soluciones innovadoras.

Requisitos técnicos y perfil del candidato

Buscamos un profesional con experiencia intermedia o superior en Python, capaz de desarrollar y automatizar componentes relacionados con DevOps y Cloud. Se requiere un sólido conocimiento en GCP, incluyendo servicios esenciales como BigQuery, Cloud Run, GKE y Cloud Scheduler, para construir infraestructuras escalables y eficientes.
El manejo avanzado de Terraform es imprescindible para gestionar la infraestructura como código, incluyendo la administración de recursos y estados. Además, la familiaridad con GitLab CI/CD es necesaria para orquestar pipelines de integración y despliegue continuo.
Se valoran también competencias en Docker y Kubernetes para la gestión de contenedores, así como experiencia en bases de datos SQL y NoSQL y en la utilización de servicios serverless. Un buen dominio de sistemas operativos Unix/Linux es requerido para el correcto desempeño en el entorno de trabajo.
Desde el punto de vista de habilidades blandas, buscamos personas con pensamiento crítico, autonomía y proactividad para detectar y sugerir mejoras en procesos. La capacidad para documentar procedimientos y colaborar eficazmente en equipo es fundamental para el éxito en este rol.
Si te apasiona trabajar en entornos cloud modernos con tecnologías escalables y afrontar retos técnicos constantes, esta posición es una gran oportunidad para seguir desarrollándote profesionalmente.

Habilidades y conocimientos adicionales valorados

Se valorará experiencia previa en manejo de servicios serverless avanzados y en la implementación de soluciones completas de infraestructura como código que involucren múltiples nubes o servicios híbridos. Conocimientos en metodologías ágiles, como Scrum o Kanban, serán apreciados, junto con habilidades para proponer y ejecutar mejoras que optimicen la eficiencia operacional. La experiencia en entornos de trabajo colaborativo y multidisciplinarios también es deseable.

Beneficios y ambiente laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2500 Tiempo completo
Ingeniero/a QA Senior – Back-end Python
  • Robotia
  • Santiago (Hybrid)
Python Agile Git QA

Somos Robotia, una empresa joven y líder en el desarrollo de soluciones de visión artificial para procesos industriales, específicamente orientada a la minería y la industria a nivel nacional e internacional. Nuestro enfoque está en el desarrollo de tecnologías basadas en inteligencia artificial para apoyar la automatización y la toma de decisiones en tiempo real, contribuyendo así a la transformación digital del sector minero y otros procesos industriales relevantes.

Apply to this job without intermediaries on Get on Board.

Responsabilidades

  • Pruebas de aceptación: Diseñar y ejecutar casos de prueba que confirmen que cada funcionalidad satisface los criterios de negocio.
  • Pruebas de integración: Planificar y ejecutar pruebas que verifiquen el flujo operativo correcto entre múltiples componentes del sistema.
  • Automatización de pruebas y herramientas de QA: Implementar suites y software especializado para validar funcionalidades nuevas, pasadas y futuras.
  • Documentación y seguimiento: Documentar planes de prueba y resultados, reportar y dar seguimiento a incidentes de calidad en conjunto con los equipos de desarrollo para su resolución.
  • Propuesta de mejoras: Aportar con propuestas de herramientas avanzadas de QA enfocadas en pipelines de datos y modelos de IA.

Requisitos

Obligatorios:

  • Título universitario en Ingeniería de Software, Computación, Informática o carrera afín.
  • Mínimo 5 años de experiencia comprobable en roles de QA de software backend, preferentemente con Python.
  • Experiencia probada en diseño y ejecución de pruebas de aceptación e integración.
  • Dominio de herramientas y suites de testing: Cucumber, Postman, JMeter, Selenium y Cypress.
  • Familiaridad con control de versiones Git y metodologías ágiles (Scrum o Kanban).
  • Excelente comunicación en español, tanto escrita como verbal, y capacidad para trabajar en equipo.

Habilidades blandas y técnicas: Debemos contar con una persona con pensamiento analítico, meticuloso en la documentación, con capacidad para colaborar eficazmente con equipos multidisciplinarios y adaptabilidad a cambios tecnológicos constantes.

Deseables

  • Conocimiento en herramientas de gestión de QA como Jira, TestRail u otras similares.
  • Experiencia con librerías y frameworks relacionados con Machine Learning y Computer Vision (PyTorch, NumPy, OpenCV, Scikit-learn).
  • Familiaridad con entornos de integración y entrega continua (CI/CD), uso de contenedores Docker y monitoreo de calidad continua.
  • Experiencia previa en industrias de tecnología de alto rendimiento o minería, lo que será considerado una ventaja importante.

Beneficios

Horario flexible y un ambiente de trabajo moderno que fomenta la innovación.

Presupuesto anual para capacitación y cursos de especialización que facilitan el crecimiento profesional continuo.

Snacks, galletas y café de grano gratis disponibles en la oficina para mantener el buen ánimo durante la jornada.

Día de cumpleaños libre y permiso de 5 días administrativos al año.

Contrato inicial a tres meses con alta probabilidad de renovación a indefinido según desempeño.

Oportunidad de integrarse a un equipo técnico senior altamente capacitado y participar en proyectos innovadores de IA aplicada a minería y procesos industriales.

Partially remote You can work from your home some days a week.
Computer provided Robotia provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Robotia offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Desarrollador Automatizador Senior (Performance Tester)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python Data Analysis
En BC Tecnología somos una consultora de servicios IT con amplia experiencia en diversas áreas tecnológicas. Durante más de 6 años hemos diseñado soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno, gestionando desde portafolios hasta desarrollos complejos y outsourcing profesional.
Este proyecto específico corresponde a la participación en un equipo especializado en pruebas de rendimiento y automatización dentro de clientes de alto nivel, llevado a cabo bajo metodologías ágiles. Nuestra fuerte orientación al cliente, el cambio organizacional y el desarrollo de productos innovadores marcan la diferencia en cada iniciativa que emprendemos.

Apply to this job through Get on Board.

Responsabilidades clave

  • Diseñar, desarrollar y ejecutar pruebas de carga y rendimiento utilizando herramientas como JMeter para evaluar sistemas críticos.
  • Automatizar los procesos de testeo mediante scripts en Python, Java o JavaScript, asegurando la eficiencia y repetibilidad de las pruebas.
  • Analizar los resultados obtenidos en las pruebas de performance, identificando cuellos de botella y proponiendo mejoras concretas.
  • Integrar las pruebas de rendimiento dentro de flujos de trabajo CI/CD, colaborando estrechamente con el equipo de QA para garantizar la calidad continua.
  • Participar activamente en reuniones de seguimiento, aportar visiones técnicas y documentar los resultados y procesos de manera clara y precisa.

Requisitos técnicos y perfil

Buscamos un profesional con sólida experiencia como Performance Tester, con un manejo avanzado de herramientas como JMeter para la ejecución de pruebas de carga y consumo de APIs. Es indispensable el conocimiento práctico en automatización utilizando lenguajes como Python, Java o JavaScript.
Se valoran conocimientos adicionales en herramientas complementarias como Postman para pruebas de APIs, Locust para simulaciones de carga, Grafana y Datadog para monitoreo de métricas y análisis, así como competencias en bases de datos SQL y gestión documental con Confluence y Jira.
Desde el punto de vista personal, buscamos un perfil autónomo, analítico y orientado a resultados, capaz de trabajar de manera independiente dentro de un entorno colaborativo. La afinidad o background en matemática y estadística será un plus que permitirá un mejor entendimiento y análisis de datos de performance.

Habilidades y conocimientos deseables

  • Experiencia previa en integración de pruebas de performance en pipelines CI/CD con herramientas modernas de DevOps.
  • Conocimientos en monitoreo y visualización avanzada de métricas con Grafana y Datadog para insights profundos de performance.
  • Familiaridad con metodologías ágiles y trabajo en equipos multidisciplinarios orientados a la mejora continua.
  • Capacidad para documentar procesos técnicos complejos y comunicar hallazgos a equipos técnicos y no técnicos.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero(a) de Aseguramiento de Calidad (QA)
  • Biometria Aplicada
  • Santiago (In-office)
JavaScript Java Python SQL

En Biometría Aplicada contamos con más de 14 años de experiencia desarrollando soluciones integrales en control biométrico y tecnologías de gestión. Nos especializamos en sistemas avanzados para la gestión de asistencia del personal, control de accesos y administración de casinos corporativos, adaptando cada solución a las necesidades específicas de nuestros clientes. Ofrecemos plataformas robustas, seguras y escalables que mejoran la eficiencia operativa, optimizan el control interno y refuerzan la seguridad en organizaciones públicas y privadas. Innovación, confiabilidad y experiencia son los pilares que nos definen.

Job opportunity published on getonbrd.com.

Responsabilidades Principales

  • Diseñar, implementar y ejecutar pruebas funcionales manuales y automatizadas.
  • Analizar requerimientos funcionales y técnicos para construir casos de prueba efectivos.
  • Desarrollar y mantener scripts de automatización para pruebas de regresión y pruebas continuas.
  • Colaborar con desarrolladores y product owners para asegurar la cobertura de pruebas.
  • Documentar defectos encontrados, hacer seguimiento y verificar su resolución.
  • Participar en revisiones de historias de usuario, criterios de aceptación y documentación técnica.
  • Ejecutar pruebas en diferentes entornos y dispositivos según los criterios del proyecto.
  • Contribuir a la mejora continua del proceso de QA y automatización de pruebas.

Requisitos Técnicos y Competencias

Buscamos un profesional con sólidos conocimientos en metodologías de testing como funcional, regresión, smoke e integración, y experiencia en herramientas de automatización como Selenium, Cypress o Playwright. Es necesario manejar lenguajes de scripting para automatización entre los que se incluyen JavaScript, Python o Java, además de herramientas de gestión de pruebas tales como TestRail, Zephyr o Xray.

También debe tener experiencia en integración continua (CI/CD), ejecutando pruebas automatizadas dentro de pipelines, así como el manejo de pruebas en APIs con Postman u otras herramientas similares. Conocimientos básicos en bases de datos, especialmente SQL para la validación de datos, son necesarios. Es deseable experiencia con herramientas BDD como Cucumber o SpecFlow.

En cuanto a competencias blandas, valoramos la atención al detalle, pensamiento analítico, trabajo en equipo, comunicación efectiva, orientación a la calidad y la mejora continua, proactividad, autonomía y adaptabilidad frente a cambios y nuevas tecnologías. La formación deseada es título en Ingeniería en Informática, Computación, Control de Calidad de Software o carrera afín; sin embargo, la experiencia puede suplir esta necesidad.

Habilidades Deseables

Se considera un plus la experiencia previa con herramientas BDD como Cucumber y SpecFlow, así como familiaridad con la integración de pruebas automatizadas en pipelines CI/CD. Además, se valoran habilidades adicionales en comunicación para la colaboración efectiva con equipos multidisciplinarios y una mentalidad orientada a la innovación y mejora continua en procesos de aseguramiento de calidad.

Beneficios

En Biometría Aplicada ofrecemos un entorno laboral colaborativo y enriquecedor, enfocado en la promoción del desarrollo profesional continuo y la innovación tecnológica. Formarás parte de un equipo experimentado donde la excelencia y el aprendizaje constante son valores centrales que promovemos activamente.

El trabajo es 100% presencial, facilitando una interacción directa y dinámica con el equipo técnico y los líderes de proyecto, lo cual mejora la comunicación y la cooperación diaria.

Fomentamos el crecimiento profesional y personal dentro de un ambiente motivador y comprometido con la calidad, donde podrás aportar significativamente al éxito de nuestros clientes y a la evolución de nuestras soluciones biométricas.

Health coverage Biometria Aplicada pays or copays health insurance for employees.
Computer provided Biometria Aplicada provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6000 Tiempo completo
Data DevOps Engineer
  • Kore RPO
Python SQL Scala Business Intelligence

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

Apply only from getonbrd.com.

Job functions

  • Design, build, test, and maintain existing data integrations, ETL processes, and BI solutions within the Azure platform.
  • Participate in Azure environment refresh and cutover activities for system integration testing and go-live for major and minor releases.
  • Support existing reporting and visualization solutions using enterprise BI tools.
  • Participate in an on-call rotation to support EIM production processes and systems.
  • Build and maintain Continuous Integration and Continuous Delivery pipelines.
  • Implement automated solutions using scripting/programming languages in the Azure environment.
  • Perform other duties as assigned.

Qualifications and requirements

  • Bachelor’s Degree in Computer Science or Information Systems.
  • 1+ years of hands-on experience developing and testing Data Warehouse and Business Intelligence solutions.
  • Experience coding in one of the following languages: Python, Scala, SQL, PowerShell.
  • An understanding of relational database concepts.
  • Cloud Technology experience is a plus.

Conditions

We are looking:

  • Able to multitask and work effectively in a dynamic environment.
  • Highly organized and detail-oriented.
  • Willing to jump in where needed, learn new technologies, and work effectively across the full stack.
  • Able to work both independently and collaboratively.
  • Passionate about continuous learning, leading, and sharing knowledge. Provide subject matter expertise and guidance to less experienced staff members regarding performance management and design best practices.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps
  • TIMINING
Python Go Docker Kubernetes
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

Send CV through getonbrd.com.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.
El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.
1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad
Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Ingeniero de Operaciones
  • Robotia
  • Santiago (Hybrid)
Python Git Linux Virtualization

Estamos en búsqueda de un Ingeniero de Operaciones dinámico y proactivo para unirse a nuestro equipo. La persona seleccionada será responsable de brindar apoyo a nuestra gerencia de servicios, asegurando la eficiencia, seguridad y estabilidad de los sistemas desplegados en los entornos productivos. Reportará directamente al jefe de operaciones.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

1. Monitoreo de sistemas en producción

o Supervisión del estado de los sistemas de visión artificial.

o Gestionar herramientas de monitoreo y diagnóstico.

o Asegurar la estabilidad e integridad de los sistemas.

o Administración de cámaras de vigilancia industriales.

2. Gestión de incidencias y soporte de segundo nivel

o Atender incidentes técnicos, investigar causas raíz y aplicar soluciones.

o Escalar problemas complejos a desarrollo o ciencia de datos si es necesario.

3. Evaluación del rendimiento de modelos deep learning

o Revisar salidas de los modelos (detecciones, clasificaciones) y compararlas contra parámetros de calidad esperados.

o Reportar desviaciones o deterioro de desempeño (por ejemplo, falsos positivos/negativos).

o Descarga y recuperación de registros, métricas y material multimedia para la retroalimentación de los modelos de aprendizaje.

4. Automatización y mejora continua

o Gestión del monitoreo y alerta de sistemas mediante la integración de herramientas automatizadas.

o Contribuir en las definiciones técnicas que maximicen la estabilidad, escalabilidad, rendimiento y seguridad de los sistemas.

5. Documentación y procedimientos operativos

o Mantener documentación clara sobre incidentes, cambios en configuración, y actualizaciones en modelos o sistemas.

6. Interacción con clientes o áreas operativas

o Comunicar hallazgos técnicos de forma clara y efectiva.

o Participar en reuniones operativas y sugerir mejoras.

Requerimientos del cargo

1. Técnicas

o Dominio de sistemas Unix (consola, gestión de procesos, eventos de sistema, administración de servicios, networking). (Obligatorio)

o Manejo de herramientas de monitoreo (Prometheus, Grafana, Nagios u otras). (Obligatorio)

o Conocimientos básicos de deep learning: cómo interpretar outputs de modelos, métricas como precision, recall, etc. (Deseable)

o Sólido manejo de scripting Bash y Python.

o Manejo Git y CI/CD (ideal para revisar versiones de modelos o pipelines).

o Manejo de Docker y administración de contenedores.

o Experiencia con Jira y Confluence. (Deseable)

2. Blandas

o Disponibilidad para visitas a terreno y pasaporte vigente (o en trámite).

o Buena comunicación, tanto oral como escrita.

o Pensamiento analítico y enfoque en resolución de problemas.

o Autoaprendizaje y adaptación a nuevas tecnologías.

o Capacidad para discriminar información relevante (ej. identificar cuándo un modelo está fallando por datos de entrada, por desalineamiento, o por bugs).

Beneficios y Condiciones

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Café de grano gratis en oficina.

o Capacitaciones y certificaciones.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año.

o Día de cumpleaños libre.

o Contrato a tres meses, renovación a indefinido según evaluación.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2700 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Python Excel SQL Business Intelligence

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de DEVOPS para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Send CV through getonbrd.com.

Funciones del cargo

Analizar procesos actuales (AS-IS):

  • Levantar, mapear y comprender procesos operativos y contables existentes. Identificar puntos críticos, riesgos y oportunidades de mejora.

Coordinar con stakeholders:

  • Organizar y gestionar reuniones con responsables de procesos clave (operaciones, contabilidad, tecnología, etc.), recopilando información relevante de múltiples frentes.

Diseñar procesos futuros (TO-BE):

  • Proponer mejoras o rediseños que aseguren trazabilidad, eficiencia y control.
  • Documentar procesos:
  • Elaborar diagramas, manuales y guías operativas claras y reutilizables.

Desarrollar e implementar soluciones:

  • Construir automatizaciones, conciliaciones, dashboards, y scripts. Validar con usuarios clave y adaptar según feedback.

Requerimientos del cargo

Conocimientos técnicos:

  • SQL avanzado (ideal experiencia con BigQuery en Google Cloud)
  • Python para automatización, validaciones y ETL
  • Excel avanzado (visualizaciones, paneles)
  • Experiencia con herramientas de BI (Looker o Power BI)

Conocimientos funcionales:

  • Procesos bancarios: abonos, cargos, conciliaciones
  • Productos financieros: créditos, cuentas corrientes, CMR, etc.
  • Contabilidad: lectura de asientos contables y análisis de cuentas (haber/debe)

Habilidades clave:

  • Pensamiento analítico y capacidad para detectar desajustes entre sistemas
  • Autonomía para investigar y proponer soluciones
  • Experiencia documentando procesos complejos
  • Manejo de herramientas de comunicación y gestión como Microsoft Teams

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
QA Automation Engineer Python/Robot Framework
  • coderslab.io
Android iOS Python Agile
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos buscando un Ingeniero Senior en Automatización para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply without intermediaries through Get on Board.

Funciones del cargo

1. Desarrollo de Automatización de Pruebas:
o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y
APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).
o Garantizar la cobertura de pruebas para servicios REST y GraphQL.
o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba
existentes.
2. Pruebas de Bases de Datos:
o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y
no relacionales (e.g., DynamoDB).
3. Gestión y Colaboración:
o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.
o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para
garantizar que los requisitos de calidad se cumplan.
o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.
4. Gestión de Infraestructura:
o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.
o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento
de pruebas automatizadas.
5. Capacitación y Transferencia de Conocimiento:
o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de
automatización.
o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la
mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.
• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium
(Android/iOS).
• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.
• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).
• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).
• Conocimiento de herramientas de CI/CD como GitHub Actions.
• Experiencia trabajando con AWS.
• Manejo de herramientas de gestión como Jira y Confluence.
• Habilidades en documentación y colaboración con equipos técnicos y de negocio.
• Experiencia en entornos ágiles (Scrum)
• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje
continuo.
• Excelentes habilidades de comunicación y proactividad
• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Site Reliability Engineer (SRE)
  • Moventi
Python MySQL Go Kubernetes
Moventi is a forward-thinking technology company dedicated to helping organizations embrace innovation through cutting-edge technologies. We provide an environment where multidisciplinary talents collaborate to drive digital transformation and shape the future with technology. Our teams engage with state-of-the-art cloud infrastructure projects and large-scale SaaS platforms designed to scale and maximize reliability and efficiency.
Our current project focuses on designing, building, and operating highly available, scalable infrastructure on cloud platforms such as AWS EKS and Azure AKS. This includes advanced data ingestion pipelines handling hundreds of terabytes to petabytes of data, leveraging technologies like Clickhouse and Kafka. We prioritize observability, security, and automation using modern tools and practices to ensure robust SaaS operations.

Job opportunity published on getonbrd.com.

Primary Responsibilities and Role Overview

As a Senior Site Reliability Engineer (SRE), you will be instrumental in architecting, deploying, and managing complex cloud-native infrastructure in large-scale SaaS environments. Your role includes designing and maintaining Kubernetes clusters (AWS EKS, Azure AKS) using Infrastructure as Code tools such as Terraform, ensuring seamless scalability and reliability.
You will be responsible for implementing observability solutions across monitoring, logging, tracing, and metrics collection using Prometheus, Grafana, Datadog, and ELK ecosystem to maintain robust system health and performance. Managing data ingestion pipelines with high-volume technologies like Clickhouse and Kafka will be part of your core tasks.
Collaboration with cross-functional teams to drive GitOps CI/CD processes, writing automation scripts in Python, Go (Golang), and Bash to streamline deployments and operations, and enforcing security best practices involving encryption, key management, and policy enforcement are key duties. In addition, you will design and maintain disaster recovery strategies for critical components such as MySQL, Kafka, and Zookeeper, ensuring business continuity and data integrity.
This role requires active participation in a large, dynamic team environment where your expertise will elevate operational standards and foster innovation around high availability SaaS platforms.

Required Experience and Skills

We are looking for a professional with a minimum of 7 years designing, building, and maintaining SaaS environments with a strong focus on large-scale cloud infrastructure. Candidates must have at least 5 years of hands-on experience working with AWS EKS and Azure AKS managed Kubernetes clusters, leveraging Terraform for infrastructure automation.
Key technical expertise includes managing data ingestion in large environments through Clickhouse and Kafka, handling data volumes scaling up to petabytes. A solid background in observability tools such as Prometheus, Grafana, Datadog, and ELK for monitoring, logging, and tracing is mandatory.
Expertise in GitOps practices and CI/CD pipelines is essential. We expect proven scripting skills in Python, Go (Golang), Bash, and AWS CLI to automate operational workflows. Candidates must demonstrate at least 3 years of experience managing security operations including enforcing infrastructure security policies, managing encryption at rest and in transit, and key management.
In-depth knowledge of disaster recovery planning and execution for distributed systems including MySQL, Kafka, and Zookeeper is required. The ideal candidate should be a proactive and collaborative team player, able to communicate complex technical concepts effectively while taking initiative in a fast-paced innovative environment. Strong problem-solving skills, risk management, and a passion for continuous improvement are imperative to succeed in this role.

Additional Preferred Skills and Experience

Experience with service mesh technologies such as Istio and Kubernetes operators is highly valued to optimize application connectivity and lifecycle management. Familiarity with large scale data architectures and tuning Kafka clusters would be advantageous. Prior exposure to cloud security frameworks and compliance standards, as well as experience leading or mentoring SRE teams within enterprise environments, will be considered a strong plus.
An innovative mindset with eagerness to explore emerging tools and automation techniques is welcome, along with excellent interpersonal skills suitable for a multidisciplinary collaborative culture.

Our Offer and Work Environment

At Moventi, we provide a stimulating and innovative work atmosphere located in the heart of San Isidro, Lima, featuring convenient parking and recreational zones to promote wellbeing during breaks. Our hybrid work model gives you the flexibility to balance time between our fully equipped office and remote work tailored to team and personal preferences.
We prioritize professional growth by exposing you to challenging, diverse projects that foster continuous learning and skills enhancement. Our organizational culture is based on transparency, collaboration, commitment, risk-taking, and innovation. We offer formal employment contracts with full legal benefits from day one, ensuring job security and comprehensive protections.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply to this job from Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

This job offer is on Get on Board.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Job opportunity published on getonbrd.com.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL Git QA
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la creación de soluciones personalizadas que se alinean perfectamente con las necesidades de nuestros clientes. Trabajamos con un diverso portafolio en sectores como servicios financieros, seguros, retail y gobierno. En nuestro proyecto actual, requerimos un Analista QA Automatizador por un periodo de 12 meses, donde el candidato será parte de un equipo ágil, encargado de asegurar la calidad de nuestros desarrollos mediante metodologías de testing avanzadas.

© getonbrd.com. All rights reserved.

Responsabilidades del Analista QA Automatizador

  • Implementar y ejecutar pruebas automatizadas utilizando Selenium WebDriver en Python u otros lenguajes de programación orientados a objetos.
  • Realizar testing de APIs, asegurando la funcionalidad solicitada y la integridad de los microservicios.
  • Manejar repositorios y versiones de software mediante Git y plataformas como GitHub, GitLab o Bitbucket.
  • Interactuar con bases de datos; realizar consultas y pruebas en PostgreSQL como parte del proceso de verificación.
  • Gestionar actividades del equipo y seguimiento de tareas a través de Jira, asegurando el cumplimiento de cronogramas establecidos.
  • Configurar pipelines de CI/CD para facilitar la integración continua y entrega de software fluida.

Requisitos y habilidades del candidato

Buscamos un profesional que posea al menos 3 años de experiencia comprobable en roles similares, con un sólido entendimiento de las prácticas de aseguramiento de calidad. El candidato debe ser capaz de trabajar de manera colaborativa en un ambiente ágil, adoptar metodologías de desarrollo modernas y comunicarse efectivamente con diferentes áreas del equipo. Se valora la proactividad y un enfoque orientado a resultados.

Habilidades deseables

Sería un plus contar con certificaciones relacionadas a testing o metodologías ágiles, así como experiencia en la gestión de pruebas dentro de equipos multidisciplinarios. La experiencia con herramientas adicionales de automatización o conocimientos en lenguajes de programación adicionales también serán considerados positivamente.

Beneficios que ofrecemos

En BC Tecnología, valoramos a nuestro personal y fomentamos un ambiente laboral positivo y colaborativo. Ofrecemos un contrato a plazo fijo que tiene la posibilidad de convertirse en indefinido. Nuestro esquema de trabajo es híbrido, permitiendo así flexibilidad en la modalidad. Además, contamos con beneficios tales como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, y tarjeta de alimentación. 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
DBA Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
En *BC Tecnología*, somos una consultora TI con un enfoque claro en el cliente. Nuestros equipos de trabajo ágiles están diseñados para colaborar en proyectos innovadores, especialmente en el sector educativo. Tenemos más de 6 años de experiencia creando soluciones IT que se ajustan a las necesidades de nuestros clientes. Este proyecto específico es emocionante y se basa en la administración y optimización de bases de datos Oracle, siendo una oportunidad ideal para quienes buscan hacer un impacto significativo en su campo.

This posting is original from the Get on Board platform.

Tus responsabilidades:

  • 🔧 Gestionar bases de datos Oracle en producción y desarrollo, asegurando su alta disponibilidad y rendimiento.
  • ⚙️ Configurar y gestionar entornos de alta disponibilidad usando Oracle RAC y Data Guard.
  • ☁️ Migrar bases de datos a Oracle Cloud y otros entornos Cloud.
  • 🛠 Automatizar tareas de DBA y realizar monitoreo continuo para optimizar el rendimiento.
  • 🛡 Diseñar planes de recuperación ante desastres y políticas de backup/restore.
  • 🔄 Colaborar con equipos de desarrollo y operaciones para integrar las bases de datos con las aplicaciones.

¿Qué buscamos?

  • 🎯 Experiencia sólida en Oracle 19c o superior.
  • ⚡ Conocimiento profundo de Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • ☁️ Experiencia con Oracle Cloud Infrastructure (OCI) y otros servicios Cloud como AWS o Azure (deseable).
  • 🛠 Habilidades en scripting para automatización de tareas DBA (Bash, Python).
  • 📊 Experiencia en monitoreo, tuning y optimización de bases de datos.
  • 🗂 Conocimiento avanzado en PLSQL, tuning de SQL, y gestión de backups (RMAN, Data Pump).
  • 🔐 Experiencia en seguridad y encriptación de bases de datos.

¿Qué ofrecemos?

  • 🚀 Proyecto de 5 meses con posibilidad de extensión.
  • 🌍 Trabajo híbrido en un ambiente dinámico.
  • 🎓 Oportunidades de crecimiento y aprendizaje con nuevas tecnologías.

Beneficios adicionales:

  • Modalidad híbrida (presencial 2 veces por semana) en Lima, Perú.
  • Horario flexible de lunes a viernes de 9:00 a 18:00.
  • Oportunidad de trabajar en proyectos innovadores que impactan el sector educativo.
  • Ambiente dinámico y con muchas oportunidades de crecimiento.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2800 - 3000 Tiempo completo
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

Job opportunity published on getonbrd.com.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2700 Tiempo completo
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Producto, Analítica de Usuarios e Insights
  • BNamericas
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis

BNamericas es la plataforma de inteligencia de negocios líder en América Latina, con 29 años de trayectoria aportando información actualizada y de alto valor de sectores estratégicos de Infraestructura, Minería, Energía Eléctrica, Petróleo y Gas, TIC y Servicios Financieros. Nuestra plataforma ofrece noticias, actualización de proyectos, personas y compañías, facilitando que nuestros clientes tomen decisiones informadas y acertadas.
¿Eres una persona analítica, curiosa y detallista? ¿Te apasiona entender cómo los usuarios interactúan con productos digitales para transformar datos en decisiones estratégicas? Esta oportunidad laboral puede ser para ti.
Hoy buscamos a un/a analista de producto orientada/o a datos, que jugará un rol clave en el análisis del comportamiento de usuarios, el monitoreo del desempeño de la plataforma y la generación de insights estratégicos
que impulsen la evolución de nuestro producto digital.

Exclusive offer from getonbrd.com.

Responsabilidades Clave

Análisis de comportamiento y uso

  • Monitorear y analizar patrones de uso, puntos de fricción y engagement.
  • Crear dashboards e informes utilizando Amplitude.
  • Compartir insights accionables con los equipos de producto, marketing y liderazgo.
  • Definir y mantener KPIs clave de uso, retención y satisfacción.

Implementación y monitoreo

  • Colaborar con el equipo de desarrollo para asegurar una correcta implementación del tracking.
  • Auditar planes de tracking y asegurar la calidad de los datos.

Soporte al desarrollo de producto

  • Apoyar la validación de hipótesis con datos reales.
  • Participar en discovery entregando insights que guíen la priorización de funcionalidades.

Medición de impacto

  • Evaluar el éxito de lanzamientos mediante KPIs y objetivos de producto.
  • Crear frameworks de medición de product-market fit y satisfacción de usuarios.

Contribución estratégica

  • Identificar oportunidades de mejoras, nuevas funcionalidades y productos.
  • Comunicar hallazgos de forma clara a equipos multidisciplinarios.

Requerimientos del cargo

  • +2 años de experiencia en roles similares (analítica de producto, inteligencia de negocios, data-driven roles).
  • Sólido manejo de herramientas de análisis, idealmente Amplitude.
  • Conocimiento de metodologías ágiles y procesos de desarrollo de producto.
  • Capacidad analítica, pensamiento crítico y excelentes habilidades de comunicación.
  • Conocimiento sobre tracking, eventos y estructuras de datos.
  • Dominio de inglés (oral y escrito).
  • Se valorará experiencia con Python, Pandas, Jupyter y SQL.

Condiciones

En BNamericas fomentamos un ambiente laboral inclusivo, diverso, creativo y altamente colaborativo.

Ofrecemos múltiples beneficios, tales como bono por referidos para la incorporación de nuevos talentos recomendados, salidas anticipadas en fechas especiales como fiestas patrias y Navidad, oportunidades de formación continua y desarrollo profesional, .

Te invitamos a ser parte de una empresa con propósito que promueve el desarrollo sostenible en la región.

Modalidad de trabajo con flexibilidad laboral: híbrido para residentes en Santiago y 100% remoto para el resto de Latinoamérica.

Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Docker

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Find this vacancy on Get on Board.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.
  • Algunos proyectos pueden incluir desafíos complejos en visión por computador.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply directly through getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Práctica Mantenedor de Datos Control de Gestión (Finanzas)
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Python Excel SQL Power BI

¿Quieres ser parte de los líderes en la revolución de los seguros?

BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión.

Official source: getonbrd.com.

Funciones

Este rol implica la mantención de la base de gastos de gestión financier. Cuyas actividades principales son preparar, actualizar y publicar las bases de datos y planes de cuentas, que son las fuentes de información principal para los reportes de gestión financieros, junto con la documentación del proceso asociado a la mantención de bases de datos.

Requerimiento del cargo

Requisitos mínimos:

  • Ser estudiante de carreras técnicas o ingenierías asociadas al área de gestión financiera, Control de Gestión y/o Administración.
  • Habilidades en:
    • Dominio de Excel intermedio
    • Conocimientos en SQL/Python (no excluyente).
    • Familiaridad con herramientas de visualización como Power BI, Qlik (no excluyente).
  • Disponibilidad para realizar la práctica por 6 meses en Santiago.
  • Se requiere una persona con ganas de aprender, capacidad de trabajo en equipo, comunicación eficaz, productividad, tolerancia a la frustración y compromiso.

Beneficios

¿Y cuáles son nuestros beneficios?

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.
  • Modalidad de trabajo híbrido: dos días presencial y teletrabajo.
  • Bono de práctica.

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas”.

Partially remote You can work from your home some days a week.
Computer provided BNP Paribas Cardif provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks BNP Paribas Cardif offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1800 Tiempo completo
Business Intelligence Analyst
  • Vemo México
  • Ciudad de México (Hybrid)
Python Data Analysis Excel SQL

¡Únete a VEMO y sé parte del futuro de la movilidad limpia!

Quiénes somos?

En VEMO, somos una empresa de electromovilidad impulsada por su gente y tecnología, que integra todo el ecosistema de movilidad limpia para México y América Latina. Nuestra misión es acelerar la adopción de soluciones de movilidad limpia, mejorando la calidad de vida urbana, preservando el medio ambiente y generando empleo sostenible de alto impacto.

¡Estamos comprometidos con una movilidad responsable, limpia e inteligente!

Applications: getonbrd.com.

Funciones del cargo

Propósito del Puesto
Recopilar, analizar e interpretar datos para ayudar a la empresa a tomar decisiones estratégicas informadas.

Principales Responsabilidades
- Análisis de datos avanzados de métricas clave de negocio.
- Elaboración de reportes escritos y presentación que faciliten la toma de decisiones de líderes de la empresa.
- Diseño de KPIs y elaboración de dashboards que faciliten el monitoreo del negocio.
- Optimización de modelos de datos que cataloguen clientes de negocio.
- Acompañamiento a negocio en iniciativas de alto impacto.

Requerimientos del cargo

Formación Académica
· Graduados universitarios de las carreras de Ingenierías, Económicas, Administración o Finanzas con experiencia en análisis de datos.

Experiencia Requerida
- Experiencia laboral en 3 años en entornos corporativos trabajando en equipo
- 3 años en Análisis de datos y presentación de resultados

Conocimientos Técnicos Clave
- Análisis de datos y visualizaciones con MS Excel - Avanzado
- Análisis de datos y visualizaciones con Python – Avanzado
- Análisis estadístico - Avanzado
- Elaboración de queries y vistas con SQL – Intermedio
-Storytelling con datos y preparaciones de presentaciones con MS Power Point – Avanzado
- Power BI o similar – Intermedio

Conditions

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Ingeniero de Datos
  • Compara
Python PostgreSQL Back-end Kafka

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. La empresa trabaja con productos como Seguro Automotriz, SOAP, Asistencias en Viaje, Crédito Hipotecario y Tarjeta de Crédito, ofreciendo a los usuarios una solución integral para tomar decisiones financieras informadas dentro del mercado latinoamericano.

Apply from getonbrd.com.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse basado en PostgreSQL y gestionar los pipelines de ingesta de datos que se encuentran en producción.
  • Liderar la transición hacia una arquitectura más moderna, basada en tecnologías como Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines para el procesamiento y transformación eficiente de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 2 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀 Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2400 Tiempo completo
Data Engineer
  • Wild Foods
  • Santiago (In-office)
JavaScript Python MySQL PostgreSQL
En Wild Foods perseguimos la excelencia a todo nivel. Buscamos al mejor talento para incorporarse a nuestro equipo de Transformación Digital. Un equipo joven, dinámico y lleno de desafíos. Si te interesa ser parte de una empresa innovadora y aprender en un entorno de alto rendimiento, anímate a postular!

Apply at getonbrd.com without intermediaries.

Funciones del cargo

¿Qué harás?
  • Diseñar y desarrollar soluciones ELT: Crear y mantener los procesos y flujos de datos necesarios para extraer datos de distintas fuentes, transformarlos según los requisitos de negocio y cargarlos en un almacén de datos centralizado.
  • Integración de múltiples plataformas: Establecer conexiones y configuraciones entre las diferentes plataformas, como Shopify, SAP, Facebook Ads, Google Ads y GCP, para garantizar la extracción y carga de datos de manera segura y eficiente.
  • Mantenimiento y optimización: Realizar tareas de monitoreo, mantenimiento y optimización de los flujos de datos existentes, identificando y solucionando posibles problemas o cuellos de botella que afecten el rendimiento del sistema.
  • Asegurar la calidad de los datos: Implementar y mantener controles de calidad para garantizar la integridad, precisión y consistencia de los datos que se están integrando desde las diferentes fuentes.
  • Data Governance: Implementar prácticas y controles de gobernanza de datos para garantizar la calidad, privacidad, seguridad y conformidad de los datos integrados. Establecer políticas y procedimientos para la gestión y uso adecuado de los datos, así como realizar seguimiento de cumplimiento normativo y resolución de problemas relacionados con la gobernanza de datos.

Requerimientos del cargo

¿Quién eres?
  • Una persona con sólidas habilidades analíticas y de resolución de problemas, capaz de identificar y solucionar problemas técnicos relacionados con la integración de datos, así como optimizar y mejorar los flujos de datos existentes.
  • Con excelentes habilidades de comunicación. Tendrás que comunicarte efectivamente con equipos multidisciplinarios, traduciendo los requisitos técnicos en términos comprensibles para el negocio.
  • Altamente proactivo y autónomo. En Wild Foods confiamos en el motor propio de cada miembro de nuestra organización.
Experiencia que traes:
  • Título universitario en Ingeniería Industrial, Informática o Comercial o carreras afín.
  • 1 a 3 años de experiencia.
  • Dominio de herramientas ELT: experiencia en el diseño y desarrollo de soluciones ELT utilizando herramientas y lenguajes como Google Dataflow, Airflow, Airbyte, DBT, Python, SQL, Javascript, entre otros.
  • Conocimientos en bases de datos: familiaridad con sistemas de gestión de bases de datos relacionales y no relacionales, como Google BigQuery, MySQL, PostgreSQL, MongoDB, etc.
  • Conocimientos de cloud computing: experiencia trabajando en entornos de computación en la nube, especialmente en Google Cloud Platform (GCP), y conocimientos de servicios como Google Cloud Storage, Google Pub/Sub, entre otros.
  • Inglés avanzado.

Condiciones

- Vacaciones ilimitadas
- Hasta un 60% de descuento en marcas Wild Brands
- Stock Options
- Día libre de cumpleaños
- Entre muchos otros!

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Wild Foods pays or copays health insurance for employees.
Computer provided Wild Foods provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Wild Foods gives you paid vacations over the legal minimum.
Beverages and snacks Wild Foods offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Especialista en GCP
  • Muruna
  • Lima (Hybrid)
Java Python Scala Business Intelligence

Muruna es una empresa chilena especializada en el sector financiero, enfocada en entregar soluciones tecnológicas y servicios de staffing altamente especializados. Nuestro portafolio incluye proyectos estratégicos que abordan la gestión y transformación de grandes volúmenes de datos, fundamentales para la toma de decisiones en organizaciones líderes del rubro financiero.

Este rol está orientado a la ingeniería de datos, con foco en la construcción, desarrollo y optimización de pipelines dentro del ecosistema Google Cloud Platform, asegurando la disponibilidad, calidad y continuidad de la información para los equipos de negocio y análisis.

En Muruna fomentamos un entorno de innovación, colaboración y mejora continua, donde el talento no solo aporta valor técnico, sino que también impulsa el éxito operativo y estratégico de nuestros clientes.

Apply to this job at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines robustos de ETL/ELT en Google Cloud Platform para transformar datos crudos en formatos analíticos optimizados.
  • Gestionar y optimizar bases de datos relacionales, Big Data, Data Lake y Data Warehouse, garantizando un almacenamiento eficiente y de alta disponibilidad.
  • Extraer y procesar datos de diversas fuentes internas y externas, asegurando la integridad, calidad y utilidad de la información para su análisis posterior.
  • Implementar procesos automatizados de limpieza, homologación y clasificación de datos para facilitar su análisis y visualización.
  • Automatizar el flujo de datos para mantener actualizaciones constantes y confiables en los sistemas de información.
  • Colaborar estrechamente con usuarios de negocio para entender sus requerimientos específicos y traducirlos en soluciones técnicas efectivas, aplicando principios de Business Intelligence y estrategias de datos para dashboards y reportes.
  • Procesar grandes volúmenes de datos utilizando herramientas de Big Data en la nube, principalmente en GCP y, de manera complementaria, en AWS.

Requisitos y conocimientos clave

Buscamos profesionales con formación universitaria en Ingeniería de Sistemas, Ingeniería de Software o carreras relacionadas, que cuenten con al menos 3 años de experiencia en la construcción e implementación de pipelines de datos en entornos Google Cloud Platform. Es fundamental que manejen servicios como Cloud Storage, DataFlow, BigQuery, BigTable, Pub/Sub, DataProc y Composer.

La certificación Data Engineer en GCP será una ventaja considerable, especialmente en candidatos con al menos un año de experiencia práctica en GCP. Se requiere experiencia sólida en Business Intelligence, entendiendo cómo aplicar estrategias de negocio para gestionar y analizar datos orientados a dashboards.

El dominio intermedio-avanzado de bases de datos SQL es imprescindible, así como experiencia de al menos 3 años en explotación y manipulación de bases de datos. Se valorará conocimiento básico en programación con Java y Python o Scala para el tratamiento y exposición de datos vía APIs.

Experiencia en ambientes cloud, principalmente GCP, con al menos un año de trabajo en estos entornos. Conocimientos en metodologías ágiles serán un plus importante para adaptarse al ritmo dinámico del equipo.

Además, buscamos candidatos que cuenten con habilidades destacadas en comunicación, análisis crítico, pensamiento estratégico, orientación a resultados y trabajo colaborativo en equipos multidisciplinarios. El nivel de inglés requerido es intermedio para interactuar en contextos técnicos y documentales.

Habilidades y conocimientos deseables

Se valorará especialmente contar con certificaciones oficiales de Google Cloud Platform en Data Engineering, experiencia previa con AWS y conocimientos avanzados en herramientas de Big Data como Apache Spark o Hadoop. Asimismo, la familiaridad con metodologías ágiles como Scrum o Kanban facilitará la integración y adaptación a los ciclos de desarrollo y despliegue.

Competencias blandas adicionales como iniciativa, proactividad para resolver problemas complejos y capacidad para trabajar en equipos interdisciplinarios distribuidos también serán muy bien valoradas.

Beneficios y ambiente laboral

  • 🎂 Medio día libre en tu cumpleaños + una Gift Card de $25 para que celebres a tu manera.
  • 📚 Certificaciones oficiales de Google (¡somos Partners!), para que sigas creciendo profesionalmente.
  • 🧠 Coaching profesional personalizado, para acompañarte en tu desarrollo y bienestar.
  • 📦 Día libre por mudanza, porque sabemos que cambiarse de casa requiere tiempo (y energía).
  • 👶 Bono por nacimiento, porque los grandes momentos merecen celebrarse.
  • 🇨🇱 Bonode Fiestas Patrias, para que disfrutes con todo el sabor local.
  • 😄 Bono por Referido.

Computer provided Muruna provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Engineer SSR
  • Improving South America
SQL Azure Power BI Cloud Computing

Hola! somos Improving South America.

Nacimos como una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Official source: getonbrd.com.

Funciones del cargo

Actualmente estamos en la búsqueda de un Data Analyst con experiencia que se quiera unir a Improving South America.
Buscamos personas con muchas ganas de aprender, de sumar y que tenga buen manejo del trabajo en equipo.
Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles) con un fuerte nivel de análisis para manejar troubleshooting en caso de errores de datos, entre otros en un proyecto de finanzas con alcance internacional para clientes de USA.
Se trabajará en el departamento de desarrollo de tecnología de la empresa.
El proyecto es con clientes en USA, pero trabajarás con nuestros equipos de Improving.
Será responsable de avanzar en los diferentes requerimientos del cliente, junto con su equipo.

Requerimientos del cargo

  • Contar con un nivel de inglés intermedio/avanzado (B2/C1). Excluyente.
  • +5 años de experiencia trabajando con SQL Server.
  • Experiencia práctica con Microsoft Fabric, Power BI y Data Flows.
  • Dominio de Azure Logic Apps y automatización en la nube.
  • Sólido conocimiento en modelado de datos, optimización del rendimiento e indexación.
  • Experiencia integrando datos desde múltiples fuentes, incluyendo APIs y almacenamiento en la nube.

Nice to have

  • Experiencia con Azure Data Factory, Synapse Analytics y Dataverse.
  • Familiaridad con Python o PowerShell para automatización.
  • Conocimiento de prácticas DevOps y CI/CD para canalizaciones de datos.
  • Certificaciones de Microsoft (por ejemplo, Azure Data Engineer Associate, Certificación en Power BI).
  • Experiencia en almacenamiento de datos (Data Warehousing) y ciencia de datos.

Beneficios

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2700 Tiempo completo
Data Engineer Semi Senior
  • TCIT
  • Santiago (In-office)
Git SQL Cloud Computing Google Cloud Platform
En TCIT, somos líderes en el desarrollo de software en modalidad Cloud, con la misión de transformar digitalmente organizaciones a través de soluciones sostenibles e innovadoras. Nuestro equipo está compuesto por profesionales apasionados y enfocados en generar un impacto positivo. Hemos trabajado en proyectos variados, desde sistemas de gestión agrícola hasta soluciones específicas para la industria judicial. Actualmente colaboramos con importantes partners tecnológicos en ambiciosos proyectos en países como Canadá.

This job is exclusive to getonbrd.com.

Dentro de las principales funciones se destacan:

  • Serás responsable de entregar soluciones eficientes, robustas y escalables en GCP. Tu rol implicará:
  • Diseñar, construir y mantener sistemas de procesamiento de datos escalables y de alto rendimiento en GCP.
  • Desarrollar y mantener pipelines de datos para la extracción, transformación y carga (ETL) de datos desde diversas fuentes en GCP.
  • Implementar soluciones para el almacenamiento y procesamiento eficiente de grandes volúmenes de datos utilizando las herramientas y servicios de GCP.
  • Colaborar con equipos multidisciplinarios para entender los requisitos y diseñar soluciones adecuadas en el contexto de GCP.
  • Optimizar el rendimiento de los sistemas de procesamiento de datos y garantizar la integridad de los datos en GCP.

Habilidades requeridas:

  • Fuerte comprensión de conceptos de bases de datos y modelado de datos.
  • Competencia en SQL, experiencia en el diseño y optimización de consultas.
  • Experiencia implementando y manteniendo soluciones y arquitecturas Cloud.
  • Experiencia en construcción y mantenimiento de Arquitecturas y Pipelines de datos.
  • Habilidades de resolución de problemas.
  • Pensamiento analítico y crítico.
  • Conocimiento de seguridad de datos y cumplimiento normativo en GCP (deseable).
  • Experiencia con herramientas de control de versiones como Git.
  • Conocimiento y experiencia del ciclo de implementación de metodologías ágiles.

Experiencia requerida:

  • Profesional titulado en informática, ingeniería, estadística o matemáticas.
  • Inglés nivel B2 intermedio/avanzado (Excluyente).
  • 3 o más años de experiencia práctica en Data Engineering en GCP.
  • Certificaciones en Google Cloud Platform (GCP) para Data Engineer.
  • Experiencia sobre Apache Spark, Hadoop en el contexto de GCP.
  • Experiencia en consumo de datos mediante servicios de GCP como Pub/Sub, BigQuery, Dataflow, Dataproc, Cloud run.
  • Conocimiento de Ejecuciones de servicios GCP mediante Google Cloud SDK.
  • Experiencia en Modelado de Datos con DBT.
  • Experiencia en el uso de lenguajes de programación como Python, Java o Scala para el desarrollo de pipelines de datos en GCP.
  • Experiencia construyendo código con shell scripting para la ejecución automatizada de flujos de datos
  • Experiencia con herramientas de orquestación, administración de flujos y monitoreo como Airflow ó Control-M
  • Experiencia trabajando con herramientas de seguimiento de metodologías ágiles (Scrum, Kanban, Lean, etc.) (deseable)

Condiciones

En TCIT, garantizamos un ambiente laboral enriquecedor con:
  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉
¡Esperamos que te unas a la revolución digital de TCIT y a nuestra apasionada comunidad!

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Promarketing
Python SQL Business Intelligence Power BI

Promarketing Chile es una empresa de desarrollo de software especializada en soluciones web escalables e innovadoras, utilizando tecnologías de vanguardia para impulsar la transformación digital, optimizar procesos y destacarse en el mercado.

Contamos con profesionales altamente capacitados y fomentamos un espacio de trabajo colaborativo y orientado al crecimiento tecnológico de nuestros colaboradores y del negocio.

¡Queremos que te unas a nuestro equipo como Data Engineer!

🚀 Sobre el desafío:

En Promarketing Chile queremos elevar la retención de usuarios y aumentar el valor promedio de los depósitos, y para eso buscamos un perfil que combine ingeniería de datos, pensamiento estratégico y visión centrada en el usuario.

Find this job on getonbrd.com.

Funciones del cargo

  • Diseñar y optimizar el Customer Journey basado en datos reales de comportamiento, desde el registro hasta la retención o abandono.
  • Implementar y mantener flujos de datos eficientes desde múltiples fuentes (CRM, pagos, sesiones).
  • Automatizar el análisis del comportamiento de usuarios y segmentación por valor y riesgo de abandono.
  • Crear dashboards interactivos (Power BI o similares) para visualizar KPIs críticos de conversión, depósitos y retención.
  • Proponer e implementar integraciones de APIs externas que mejoren el análisis de usuarios.
  • Colaborar con los equipos de marketing y TI para tomar decisiones basadas en datos.

Requerimientos del cargo

  • Experiencia de 2+ años en ingeniería de datos, análisis o BI.
  • Dominio de SQL (queries complejas, segmentación, cohortes).
  • Dominio de Python
  • Conocimiento práctico en Power BI, Looker o similares.
  • Conocimiento en GTM y GA4
  • Experiencia diseñando o implementando Customer Journeys con base en datos.
  • Capacidad de traducir datos en acciones estratégicas y recomendaciones claras.

Opcionales

  • Deseable: experiencia con herramientas como dbt, Fivetran, BigQuery, Segment, Airflow.
  • Experiencia previa o interés en el sector de casinos online, gaming, fintech o ecommerce.

Condiciones

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un entorno de trabajo flexible y dinámico.
  • Día libre para tu cumpleaños.
  • Trabajo 100% Remoto
  • 40 Hora de trabajo semanales

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Data Engineer
  • Moventi
Python Analytics SQL Web server
Moventi is a forward-thinking technology company dedicated to empowering organizations to lead in their industries through innovation and advanced technology solutions. Our work culture encourages transparency, teamwork, and continuous learning. We operate from a centrally located office offering modern collaborative spaces, including agile meeting tables and recreational areas, fostering a vibrant and supportive environment. The Senior Data Engineer will join a multidisciplinary team working on transformative projects in healthcare technology and software services, enabling data-driven decision making that positively impacts healthcare outcomes and technological advancements within our clients' businesses.

This job offer is on Get on Board.

Role and Responsibilities

As a Senior Data Engineer at Moventi, you will be a key player in architecting, developing, and maintaining scalable data pipelines and infrastructure. Your responsibilities will include:
  • Designing and implementing robust ETL/ELT pipelines using SQL, Python, and Airflow to process large volumes of complex data efficiently.
  • Managing and optimizing data storage and processing frameworks, particularly leveraging Snowflake's cloud data platform for high performance and scalability.
  • Collaborating closely with data scientists, analysts, and stakeholders to translate business needs into effective data solutions.
  • Developing and maintaining data visualization tools and dashboards using Tableau to provide actionable insights to business users.
  • Ensuring data quality, security, and governance best practices are implemented and monitored.
  • Mentoring junior data engineers and sharing knowledge to enhance team capabilities.
Your role is vital to transforming raw data into meaningful analytics deliverables that drive strategic business decisions and innovation within healthcare technology and software service domains.

Requirements and Qualifications

We are looking for a Senior Data Engineer with the following expertise and skills:
  • 5+ years of professional experience in data engineering or analytics engineering roles
  • Proven expertise with Snowflake (data modeling, performance optimization, security)
  • Strong proficiency in Python for data processing and automation
  • Hands-on experience with Apache Airflow for the orchestration of workflows
  • Proficiency in SQL with experience in optimizing queries and data transformations
  • Experience developing data visualizations using Tableau
  • Familiarity with healthcare technology, software services, or tech-enabled analytics platforms
  • Excellent communication skills and experience working with multidisciplinary stakeholders
  • Comfortable working autonomously and capable of delivering high-quality work independently
  • Previous exposure to remote-first work environments; adaptable and collaborative

Desirable Skills and Experience

Preferred additional skills include:
  • Experience with other cloud platforms such as AWS, Azure, or GCP.
  • Knowledge of containerization tools like Docker and orchestration platforms such as Kubernetes.
  • Familiarity with machine learning pipelines and collaboration with data science teams.
  • Understanding of healthcare data standards (e.g., HL7, FHIR) and data privacy regulations like HIPAA or GDPR.
  • Participation in open-source data engineering projects or community involvement.

Why Join Moventi?

  • Continuous opportunities for professional growth and ongoing learning within a multidisciplinary environment.
  • Flexible remote work options, enabling you to balance work and personal life effectively.
  • Participation in highly challenging projects that encourage innovation and skill development.
  • A positive and collaborative company culture based on transparency, commitment, and innovative thinking.
  • Central office location with modern facilities including parking and recreational areas, ideal for hybrid work if preferred.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Data Pipelines Cloud
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Data Analysis Excel
En BC Tecnología, una consultora especializada en servicios IT con más de 6 años de experiencia, diseñamos y ejecutamos soluciones tecnológicas a medida para clientes en sectores como financieros, seguros, retail y gobierno. Nuestro enfoque está en metodologías ágiles, cambio organizacional y desarrollo de productos innovadores. Como parte del equipo de datos, trabajarás en proyectos de modernización y optimización de ductos de datos en entornos cloud, colaborando con áreas de infraestructura y desarrollo para potenciar la gestión de datos en importantes clientes del área retail y otros sectores clave.

Apply without intermediaries through Get on Board.

Responsabilidades principales

Entre las funciones principales del rol se incluyen:
  • Diseñar, construir y mantener pipelines de datos eficientes y escalables en entornos cloud, preferentemente en AWS.
  • Colaborar en la ingesta, transformación y carga de datos provenientes de diversas fuentes internas y externas.
  • Trabajar junto a un líder técnico en iniciativas de modernización y mejora continua de los sistemas de datos.
  • Implementar soluciones técnicas alineadas con los lineamientos de arquitectura y estrategia de datos corporativa.
  • Interpretar y traducir requerimientos de negocio relacionados con datos en conjunto con analistas y desarrolladores para ofrecer soluciones que aporten valor.
  • Apoyar en la documentación técnica y seguimiento de buenas prácticas en desarrollo de pipelines.

Requisitos y experiencia requerida

Buscamos un profesional con experiencia práctica en proyectos relacionados con datos y pipelines en ambientes cloud, con capacidad para integrarse rápidamente a equipos multidisciplinarios. Es fundamental contar con:
  • Experiencia íntima con herramientas de visualización de datos, destacando Power BI y Metabase, que permitan el análisis y presentación clara de información.
  • Manejo intermedio de Excel para análisis de datos y manipulación básica.
  • Fuerte manejo en computación en la nube, idealmente con AWS, y servicios como Glue, Airflow y Redshift para orquestación, transformación y almacenamiento de datos.
  • Dominio de bases de datos SQL y/o NoSQL, para consulta, modelamiento y optimización del acceso a datos.
  • Conocimientos en lenguajes de programación como Python o Java, utilizados para desarrollo y automatización en la ingeniería de datos.
  • Experiencia previa en el rubro retail, entendiendo sus particularidades y necesidades en el manejo de datos.
  • Disponibilidad para trabajar en modalidad híbrida desde Chile, con flexibilidad para combinar trabajo remoto y presencial.
Valoramos habilidades blandas como colaboración, comunicación efectiva, orientación al detalle y capacidad de adaptación a entornos dinámicos y multidisciplinarios.

Habilidades y conocimientos deseables

Además, será altamente valorado que el candidato cuente con:
  • Experiencia en otras plataformas cloud además de AWS, como Azure o Google Cloud.
  • Conocimientos en frameworks y herramientas de orquestación de flujos de datos adicionales a Airflow.
  • Capacidad para diseñar arquitecturas de datos escalables y resilientes.
  • Conocimientos en seguridad y gobernanza de datos para garantizar integridad y cumplimiento normativo.
  • Experiencia previa en metodologías ágiles y trabajo colaborativo con equipos multifuncionales.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 1700 Tiempo completo
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Applications at getonbrd.com.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

Conditions

Life insurance Zerviz Technologies pays or copays life insurance for employees.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Dental insurance Zerviz Technologies pays or copays dental insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Ingeniero de Datos
  • Devsu
  • Quito (Hybrid)
Java Python SQL NoSQL

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de US y Latinoamérica en diferentes industrias como banca y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales.

Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. Se valorará la capacidad de liderar y colaborar con equipos multidisciplinarios para acelerar el cumplimiento de objetivos.

Es una posición híbrida en la ciudad de Quito-Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Apply without intermediaries from Get on Board.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.

Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Arquitecto de Datos
  • Devsu
  • Quito (In-office)
Python SQL Business Intelligence Virtualization

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de US y Latinoamérica en diferentes industrias como banca y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales.

Buscamos un profesional con sólida experiencia técnica y capacidad estratégica para liderar la evolución y arquitectura de productos digitales en el sector financiero.

Buscamos un Arquitecto de Datos con sólida experiencia en la plataforma Stratio y ecosistemas de datos sobre (AWS).

Es una posición remota si vives en Latam y presencial si vives en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Apply directly from Get on Board.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en NRT y por lotes utilizando Spark.
  • Diseñar y evolucionar arquitecturas de datos utilizando Stratio Data Fabric.
  • Construir y optimizar pipelines de datos en AWS: ingestión, transformación, almacenamiento y exposición.
  • Implementar políticas de seguridad, calidad y gobierno de datos.
  • Colaborar con equipos de desarrollo, analítica y DevOps para garantizar la integración continua y despliegues eficientes.
  • Documentar arquitecturas, modelos de datos y decisiones técnicas clave.
  • Liderar la toma de decisiones sobre herramientas, patrones y estándares tecnológicos.

Requerimientos del cargo

  • 5+ años de experiencia en arquitectura de datos.
  • Experiencia real con Stratio Platform: configuración, virtualización, gobierno de datos, etc.
  • Experiencia sólida en AWS: S3, Glue, Redshift, Lambda, Athena, Kinesis, EMR, IAM.
  • Conocimiento en arquitecturas orientadas a eventos, datos en tiempo real, Data Lakes y Lake Houses.
  • Experiencia con Terraform o CloudFormation para infraestructura como código.
  • Conocimiento de lenguajes como Python, SQL y frameworks tipo Spark / PySpark.

Deseables:

  • Certificaciones AWS (ej. Data Analytics, Solutions Architect).
  • Experiencia previa en banca, seguros o telcos.
  • Experiencia en herramientas de visualización (Power BI, Looker, Tableau).

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos
  • BC Tecnología
Java C Python SQL
En BC Tecnología somos una consultora especializada en servicios de IT, con fuerte expertise en diferentes áreas tecnológicas. Nuestra organización se dedica a administrar portafolios, desarrollar proyectos e implementar soluciones a medida, además de realizar outsourcing y selección de profesionales para clientes destacados en sectores como servicios financieros, seguros, retail y gobierno. La posición de Ingeniero de Datos se enmarca dentro de proyectos innovadores enfocados en la transformación digital y optimización de procesos mediante el aprovechamiento de datos. Trabajamos con metodologías ágiles para diseñar soluciones que se adaptan a las necesidades específicas de cada cliente, creando equipos multidisciplinarios con un fuerte enfoque en colaboración, calidad y entrega continua.

Apply to this posting directly on Get on Board.

Responsabilidades del Ingeniero de Datos

El Ingeniero de Datos será responsable de diseñar, implementar y mantener procesos ETL (Extract, Transform, Load) para la ingesta y procesamiento de grandes volúmenes de datos provenientes de diversas fuentes. Deberá garantizar la integridad y calidad de los datos, facilitando su disponibilidad para análisis y reportes.
Sus tareas principales incluirán:
  • Construir y administrar almacenes y lagos de datos escalables y seguros.
  • Automatizar flujos de datos mediante herramientas y tecnologías específicas del ecosistema Microsoft Azure, como Data Lake, Data Factory y Databricks.
  • Colaborar con equipos de analistas, científicos de datos y desarrolladores para entender necesidades y entregar soluciones ajustadas.
  • Implementar monitoreo y optimización de pipelines de datos para garantizar eficiencia y rendimiento.
  • Documentar procesos y arquitecturas de datos para mantener buenas prácticas y facilitar la transferencia de conocimiento.

Requisitos y habilidades técnicas

Buscamos profesionales con hasta 3 años de experiencia en ingeniería de datos, con un perfil orientado al desarrollo y operación de plataformas de datos. Es fundamental tener conocimiento avanzado en SQL y experiencia práctica con lenguajes de programación orientados a datos como C# y Java, mientras que Python y PySpark son habilidades deseables que aportan valor agregado a la posición.
Se requiere experiencia comprobable en el diseño y ejecución de procesos ETL, así como en la administración y manejo de almacenes de datos (data warehouses). La familiaridad con herramientas de visualización como Power BI es necesaria; conocimientos en Tableau son un plus.
Se valoran conocimientos y experiencia en servicios de nube, especialmente Azure Data Lake, Azure Data Factory y Databricks, lo que permitirá implementar soluciones modernas y escalables.
Además, se considerará positivamente la comprensión de aspectos del negocio relacionados con ingresos, precios y tarifarios, especialmente en sectores como retail, telecomunicaciones o aerolíneas, donde el análisis de estos datos es crítico.
La formación requerida es técnica o profesional en carreras afines a TI, preferentemente con certificaciones o cursos especializados en plataformas Microsoft Azure y tecnologías de ingeniería de datos.
Competencias blandas imprescindibles incluyen capacidad para trabajar en equipo, buena comunicación, adaptabilidad, proactividad y orientación a resultados.

Conocimientos deseables

  • Experiencia con lenguajes de scripting para automatización de procesos.
  • Conocimiento de arquitecturas Big Data y herramientas asociadas.
  • Familiaridad con librerías de Python para ingeniería de datos o ciencia de datos.
  • Habilidades en visualización avanzada con Tableau o herramientas similares.
  • Certificaciones adicionales en Microsoft Azure o plataformas similares de nube.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional mediante la integración y el intercambio de conocimientos entre equipos.
Ofrecemos una modalidad híbrida de trabajo desde nuestras oficinas en Las Condes, favoreciendo la flexibilidad para combinar el trabajo remoto con la colaboración presencial, lo que permite un mejor equilibrio entre vida personal y laboral.
Formarás parte de proyectos innovadores con clientes de alto nivel y en sectores diversos, en un entorno inclusivo que respeta la diversidad y fomenta el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista de Big Data
  • SONDA
  • Santiago (Hybrid)
Java Python PostgreSQL SQL

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, para proyecto SII - Servicio de impuestos indirectos, buscamos a Especialista de Big Data.

Applications are only received at getonbrd.com.

Funciones del cargo

· Ser responsable de crear el "Big Data", tubería de datos, desde la recolección hasta la entrega para su análisis o para alimentar un producto o servicio basado en análisis predictivos en producción.

· Asegurar que la arquitectura de datos sea factible para que los científicos de datos trabajen con ella.

· Construir y mantener un Data Lakes y ofrece API para acceder al Especialista de Data Science que usa los datos para su análisis y ejecución de modelos de Machine Learning.

· Ser responsable de dar todo el apoyo para que el trabajo del Especialista de Data Science suceda, y sea “más efectivo”.

Requerimientos del cargo

· Estudios superiores en áreas relacionados.

· Desde 2 años de experiencia en cargos similares.

· Construcción de procesos e integración de datos en Big Data

· Conocimiento de conceptos de computación distribuida

· Experiencia y conocimiento en el uso de SQL.

· Uso de bases de datos relacionales, particularmente en Oracle y postgreSQL.

· Bases de Datos NoSQL
· Manejo de sistemas Unix/linux, shell script

· Programación orientada a objetos usando JAVA o Python

· Programación Funcional en Scala/Spark

· Manejo de herramientas de CI/CD.

· Conocimiento de almacenamiento de Datos.
· Diseño de Esquemas de datos

· Conocimiento de Hive, Impala, Kudu

· Conocimiento de Kafka ​

· Deseable conocimiento en el uso de servicios en entorno Cloudera.

Opcionales

Y mucho mejor si destacas por tener alguna certificación o curso en alguno de estos tópicos: ​

· Integración de datos

· Big data

· Desarrollo API

· Microservicios, springboot, springbatch

· Desarrollo en nube

· Desarrollo seguro

· Diseño de aplicaciones

· Metodologías ágiles

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Dental insurance SONDA pays or copays dental insurance for employees.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
Education stipend SONDA covers some educational expenses related to the position.
Fitness subsidies SONDA offers stipends for sports or fitness programs.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3400 - 4400 Tiempo completo
Senior Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Ruby Python SQL
Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de seleccionar a los solicitantes de empleo. Fundada en 2014, Checkr pone la tecnología moderna impulsada por el aprendizaje automático en manos de los equipos de contratación, ayudando a contratar a grandes nuevas personas con una experiencia que es rápida, suave y segura. Checkr tiene más de 100.000 clientes, entre ellos DoorDash, Coinbase, Lyft, Instacart y Airtable.
Buscamos un Ingeniero de Datos Senior con experiencia para que se incorpore a nuestro equipo de operaciones de datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene los sistemas que realizan verificaciones de antecedentes precisas y eficientes.
Como ingeniero de datos sénior del equipo de operaciones de datos, trabajarás en proyectos de gran impacto que contribuyen directamente a la funcionalidad principal de los servicios de verificación de antecedentes de Checkr.

Apply to this job at getonbrd.com.

Responsabilidades del cargo

  • Crear y mantener canales de datos y conjuntos de datos fundamentales para satisfacer las necesidades del producto y del negocio.
  • Diseñar y construir arquitecturas de bases de datos con datos masivos y complejos, equilibrando la carga computacional y el coste.
  • Desarrollar auditorías para la calidad de los datos a gran escala, implementando alertas según sea necesario.
  • Crear paneles de control y informes escalables para apoyar los objetivos empresariales y permitir la toma de decisiones basada en datos.
  • Solucionar y resolver problemas complejos en entornos de producción.
  • Trabajar en estrecha colaboración con los gestores de productos y otras partes interesadas para definir e implementar nuevas funciones.

Calificaciones y Requisitos del cargo

  • Más de 5 años de experiencia en desarrollo de software full-stack.
  • Gran dominio de al menos uno de los siguientes lenguajes: Ruby (preferible), Python o Golang.
  • Experiencia en el procesamiento de datos a gran escala, tanto por lotes como en streaming.
  • Sólidos conocimientos de sistemas de bases de datos, tanto SQL como NoSQL.
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake, AWS Glue, Athena y S3.
  • Experiencia con ETL/ELT, procesamiento de datos en streaming y por lotes a gran escala.
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Experiencia con arquitectura de microservicios y API RESTful.
  • Fuertes habilidades para resolver problemas y atención al detalle.
  • Habilidades avanzadas de comunicación en inglés y capacidad para trabajar en un entorno colaborativo.

Competencias Deseables

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Scientist – LLM Expert
  • Niuro
Python Virtualization Amazon Web Services Azure
Niuro collaborates with leading U.S. companies by connecting them with elite, autonomous, high-performance tech teams worldwide. Through innovative solutions, Niuro simplifies global talent acquisition ensuring maximum efficiency and quality. Our teams focus on challenging projects involving advanced industrial data, where continuous professional growth and leadership development are core values. By handling the administrative side—hiring, payments, training—Niuro empowers specialists to deliver exceptional results while advancing their careers in a collaborative and stimulating environment.

Job source: getonbrd.com.

About the Role

At Niuro, we are seeking a Data Scientist with expertise in Large Language Models (LLMs) to become an integral part of our engineering team. Your role will involve building intelligent agents that seamlessly integrate data, tools, and various models to produce measurable and impactful outcomes.
You will own the entire development loop: from framing complex problems and defining success criteria to developing, deploying, and maintaining efficient, trustworthy, and maintainable AI-powered solutions over time. Your work will be essential in advancing our data science capabilities and delivering reliable, production-grade features that leverage AI and LLM technologies.

Requirements

  • Solid, hands-on experience in classical Data Science techniques, including modeling, feature engineering, statistics, and experimentation.
  • Strong proficiency in Python programming is mandatory.
  • Proven production experience shipping AI/ML or LLM-powered features to live environments.
  • Experience working with at least one major cloud platform such as AWS, Azure, or Google Cloud Platform (GCP).
  • Professional proficiency in English to effectively communicate in a global team.
  • Systems thinking with the ability to understand data flows, failure modes, and optimize trade-offs related to cost, latency, and throughput.
  • Commitment to writing clean, testable, and maintainable code that meets industry best practices.
  • A strong respect for privacy, security, and operational reliability in AI systems.

Nice to Have

  • Experience building or maintaining Retrieval-Augmented Generation (RAG) systems, enhancing LLM responses with external knowledge bases.
  • Familiarity with tool/function calling mechanisms and Multi-Component Processing (MCP)-based integrations to extend AI capabilities.

Why Join Niuro?

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and foster professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere in the world. We invest in your career development through continuous training programs and leadership opportunities, ensuring that you grow and succeed alongside us.
Following successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to building lasting relationships with team members.
Join Niuro to be part of a global community committed to technological excellence, supported by a strong administrative infrastructure that lets you focus fully on delivering impactful work.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Datos SEO
  • WiTi
Python Analytics SEO SEM
Nos dedicamos al desarrollo de software y soluciones tecnológicas. Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles. Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.

Applications are only received at getonbrd.com.

Funciones del cargo

Serás la voz de los datos dentro del equipo SEO Regional: diseñarás y mantendrás dashboards en Looker Studio para exponer el rendimiento orgánico, analizarás a fondo métricas de tráfico, rankings y conversión en GA4 y Search Console, y escudriñarás logs del servidor y herramientas SEO como SEMrush o Ahrefs para detectar oportunidades técnicas. Convertirás hallazgos complejos en historias claras y accionables para audiencias técnicas y de negocio, colaborando estrechamente con Analítica Digital y Business Intelligence para integrar nuevas fuentes de datos y garantizar una visión 360° del cliente. Tu trabajo guiará decisiones estratégicas, acelerará el crecimiento orgánico regional y demostrará, con evidencia, el impacto comercial de cada iniciativa.

Requerimientos del cargo

3 – 5 años de experiencia total en analítica digital, business intelligence o SEO; mínimo 2 años aplicando análisis de datos a SEO o marketing digital.
Certificaciones deseables en Google Analytics 4 y herramientas de visualización; posgrados en Business Analytics, Data Science o Marketing Digital son un plus.
Dominio avanzado de:
  • Google Analytics 4
  • Google Search Console
  • Google Looker Studio / Power BI / Tableau
  • Excel / Google Sheets (tablas dinámicas, funciones avanzadas)
Nivel intermedio-avanzado de SQL para consulta de bases de datos.
Deseable manejo de herramientas SEO (SEMrush, Ahrefs, Moz), conocimientos de Python y uso de APIs de plataformas SEO.

Competencias clave

  • Pensamiento analítico y cuantitativo
  • Data storytelling
  • Influencia y colaboración
  • Visión de negocio
  • Atención rigurosa al detalle.

Condiciones

En WiTi, ofrecemos un entorno de trabajo 100% remoto, lo que permite una gran flexibilidad y autonomía. Además, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:
  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.
Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Fully remote You can work from anywhere in the world.
Internal talks WiTi offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Education stipend WiTi covers some educational expenses related to the position.
Personal coaching WiTi offers counseling or personal coaching to employees.
Conference stipend WiTi covers tickets and/or some expenses for conferences related to the position.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1700 Tiempo completo
Analista Business Intelligence
  • Global Mobility Apex, S.A.
Python Git Data Analysis SQL

En Global Mobility Apex, S.A., una corporación multinacional de bebidas y alimentos con más de 15,000 colaboradores y presencia en más de 14 países, buscamos fortalecer nuestra estrategia dinámica de expansión y crecimiento a través del talento. La empresa se ha dividido en cuatro unidades de negocio: Apex (transformación), CBC (distribución), Beliv (innovación en bebidas) y BIA (alimentos), enfocadas en liderar el mercado con amplia experiencia y socios estratégicos como PepsiCo y AB InBev.

El equipo tecnológico desempeña un papel fundamental en la construcción de soluciones innovadoras y escalables que soportan este crecimiento global y la transformación digital de la compañía.

Opportunity published on Get on Board.

Responsabilidades

  • Trabajar con el equipo de Business Intelligence (BI) y de Ingeniería de Datos para desarrollar soluciones de reportería, lo cual incluye la recolección, modelado y presentación de datos relevantes para la toma de decisiones de los equipos de gestión y Product Owners de los casos de uso digitales.
  • Comunicar hallazgos y recomendaciones derivados del análisis de los datos de manera efectiva a los equipos de gestión y Product Owners de los casos de uso digitales.
  • Ayudar en el mantenimiento de las soluciones ya existentes y las nuevas que se implementen dentro del equipo de BI.
  • Asistir en el soporte de incidencias de las soluciones ya existentes y las nuevas que se implementen dentro del equipo de BI.

Requisitos del puesto

  • Licenciatura en ingeniería o carrera afín
  • Uso de herramientas de visualización, particularmente Power BI
  • Conocimiento de SQL y Python
  • Experiencia en desarrollo de proyectos de reportería
  • Conocimiento básico de metodología ágil
  • Conocimiento de sistemas de control de versión como Git (deseable)
  • Conocimiento de herramientas como Tabular Editor y Power Automate (deseable)

Beneficios

  • Ambiente de trabajo colaborativo y dinámico.
  • Desarrollo profesional continuo y oportunidades de crecimiento.
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Global Mobility Apex, S.A. pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en SEO Técnico y Data & Reporting
  • Adecco
  • Santiago (Hybrid)
Python SEO SEM Data Analysis

Adecco es la empresa líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en Chile y una extensa red de más de 25 sucursales en las principales ciudades del país. Su compromiso con la calidad y la adaptación a las necesidades específicas de cada cliente, sumado a la certificación bajo norma ISO 9001:2015, posiciona a Adecco Chile como referente en soluciones integrales en selección, staffing, payroll y capacitación en diversos sectores industriales. Este rol forma parte de un proyecto estratégico de nuestro cliente enfocado en optimizar el canal orgánico de las plataformas digitales de Adecco y sus clientes, a través de la implementación y mantenimiento de infraestructura avanzada para el análisis y reporte de SEO y datos asociados. El equipo responsable impulsa la toma de decisiones basada en datos precisos que favorecen el crecimiento y la mejora continua del posicionamiento orgánico regional.

Find this job on getonbrd.com.

Responsabilidades principales

  • Desarrollar y mantener dashboards y reportes de SEO que integren indicadores clave como tráfico web, rankings y conversiones.
  • Realizar análisis cuantitativos profundos para identificar tendencias, oportunidades de crecimiento y posibles áreas de mejora en el canal orgánico.
  • Ejecutar diagnósticos técnicos mediante el análisis de datos de rastreo y logs del servidor para detectar problemas que impactan el rendimiento SEO.
  • Comunicar de forma clara y efectiva los hallazgos mediante data storytelling, adaptando la presentación a audiencias técnicas y no técnicas.
  • Integrar datos SEO con otras fuentes de información del negocio en colaboración con el equipo de Business Intelligence, asegurando una visión holística.
  • Coordinar con el equipo de Analítica Digital para validar la correcta medición y etiquetado de los datos mediante herramientas como GA4 y Google Tag Manager.
  • Colaborar transversalmente con áreas de BI, Desarrollo/TI y marketing para alinear las iniciativas de SEO con los objetivos de negocio.

Requisitos del cargo

Buscamos un profesional con formación en Ingeniería Comercial, Civil Industrial, Informática, Estadística, Data Science o carreras afines con enfoque cuantitativo. Se requiere una experiencia total de 3 a 5 años en análisis digital, inteligencia de negocio o SEO, con un mínimo de 2 a 3 años enfocados específicamente en análisis de datos aplicados a SEO o marketing digital.

Es deseable contar con certificaciones en Google Analytics 4 y plataformas de visualización de datos, así como estudios avanzados como diplomados o magísteres en Business Analytics, Data Science o Marketing Digital.

En el plano técnico, es fundamental un dominio avanzado de Google Analytics 4, Search Console, Looker Studio (o Power BI/Tableau) y Excel/Google Sheets. También se valorará conocimiento intermedio-avanzado de SQL y experiencia con herramientas SEO como SEMrush, Ahrefs o Moz. Conocimientos de Python y gestión de APIs SEO son un plus.

El candidato debe poseer un nivel de inglés intermedio-alto para comunicarse eficazmente con stakeholders regionales y acceder a documentación técnica.

Se valoran competencias como pensamiento analítico y cuantitativo, habilidades para contar historias con datos (data storytelling), capacidad de influencia y colaboración interdisciplinaria, orientación al impacto de negocio, y atención minuciosa al detalle en análisis y reportes.

Competencias y habilidades deseables

Se considerarán positivamente conocimientos adicionales en programación con Python para automatización y análisis avanzado de datos. Familiaridad con metodologías ágiles de trabajo y experiencia en coordinación de proyectos multidisciplinarios.

También es deseable tener experiencia en ambientes regionales y multilingües, así como habilidades interpersonales para comunicar resultados a distintos niveles jerárquicos y equipos técnicos y no técnicos. La capacidad para adaptarse a entornos dinámicos y gestionar prioridades en colaboración con diversas áreas complementará el perfil requerido.

¿Qué te ofrecemos?

Nuestro cliente ofrecemos un ambiente laboral desafiante y dinámico que impulsa tu desarrollo profesional y personal. Trabajarás con un equipo altamente capacitado y profesional que favorece la colaboración y el aprendizaje constante.

Dispondrás de formación continua para mantenerte actualizado en las últimas tecnologías y tendencias del sector.

Contarás con oportunidades reales de crecimiento dentro de la empresa y del sector tecnológico, con contratos inicialmente a plazo fijo y posteriormente indefinidos con el cliente final.

Tu modalidad de trabajo será híbrida, con tres días remotos y dos presenciales en nuestra oficina ubicada en la comuna de Las Condes, Santiago.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2600 Tiempo completo
Data Integration Engineer
  • Inetum
  • Lima (Hybrid)
Python Agile SQL Linux

Somos Inetum, una compañía de servicios ágiles que proporciona soluciones digitales y un grupo global de tecnólogos que acompaña a sus clientes. Ofrecemos a nuestros clientes una combinación única de proximidad, organización sectorial y soluciones de calidad. Presente en más de 26 países, el grupo tiene cerca de 27,000 colaboradores y apunta a seguir creciendo.

This job is original from Get on Board.

¿Cuáles serán tus funciones?

  • Diseñar, desarrollar y optimizar procesos de integración de datos en entornos on-premise (Oracle) y Cloud (Azure) y la migración e integración entre ellos.
  • Implementar y gestionar procesos batch y real-time, garantizando eficiencia y escalabilidad en la ejecución.
  • Desarrollar soluciones con SQL, PySpark/Spark, aplicando buenas prácticas de programación y optimización.
  • Orquestar flujos de datos mediante herramientas como el orquestador en Mainframe, Data Factory.
  • Automatizar procesos de datos para mejorar la eficiencia operativa y reducir tiempos de procesamiento.
  • Optimizar el rendimiento y los costos de servicios en Azure, asegurando el uso eficiente de los recursos en la nube.
  • Integrar los pipelines de datos con aplicaciones y microservicios, facilitando la interoperabilidad dentro del ecosistema bancario.
  • Colaborar con equipos de negocio y tecnología para garantizar la calidad y disponibilidad de los datos.

¿Cuáles son los requisitos para la posición?

  • Profesional de Ingeniería de Sistemas, Informática, Ciencias de la Computación u otras carreras afines.
  • Experiencia con lenguajes Python, PLSQL, PySpark (SparkSQL / Spark Dataframes), SQL. (mandatorio).
  • Experiencia en Tuning y optimización de procesos distribuidos, Shell Scripting y Comandos Linux / Unix. (mandatorio)
  • Experiencia en Cloud Azure y Databricks (Notebooks, Repos, Cluster Management, Unit Catalog) (mandatorio)
  • Experiencia en Azure Data Factory y Azure SQL / Azure Cosmos DB. (mandatorio)
  • Experiencia en Formato de Datos con Delta, CSV, Parquet, JSON y/o Avro.
  • Experiencia en Despliegues de soluciones con herramientas IC (Jira, Jenkins, Github).
  • Conocimientos generales en Arquitectura BigData, Pipeline de Datos, Data Quality y metodologías agile (Scrum).

Además, valoraremos talentos que muestren competencias desarrolladas de Comunicación Asertiva a todo nivel, Autonomía / Autogestión para la toma de decisiones, Orientación al Logro para la consecución de objetivos y Adaptabilidad al Cambio en cualquier entorno.

¿Qué puedes esperar de nosotros?

  • Remuneración en planilla con todas las condiciones de ley.
  • Bono de movilidad y bono de alimentos con tarjeta Pluxee.
  • Capacitaciones constantes acorde a tu línea de carrera y otras de interés general (plataformas de e-learning).
  • Pago de certificaciones acordes a tu perfil y a las necesidades del negocio, además de invitaciones a eventos o congresos relacionados a la comunidad.
  • Beneficios corporativos a través de nuestra plataforma de descuentos y de salud (psicología / nutrición)
  • Línea de carrera con objetivos definidos para tu crecimiento profesional.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily, lo que refleja un sólido posicionamiento en el sector inmobiliario y de administración de propiedades en la región. El equipo de datos tiene un rol clave para optimizar y dirigir los procesos internos mediante soluciones tecnológicas de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa.

Apply directly on Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos profesionales

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL a nivel medio.
  • Manejo de Python Intermedio/Avanzado (excluyente), con experiencia en librerías Pandas y Numpy.
  • Manejo de Power BI a nivel medio para desarrollo y mantenimiento de dashboards.
  • Manejo avanzado de Excel para análisis y procesamiento de información.
  • Experiencia mínima de 1 a 3 años.
Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Habilidades y conocimientos deseables

Se valoran conocimientos en metodologías ágiles para la gestión y desarrollo colaborativo de proyectos, capacidades de comunicación efectiva para la interacción con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Asimismo, la experiencia en buenas prácticas de gobernanza y calidad de datos será un plus importante para aportar a la robustez del ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad.
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales.
  • Monto mensual en app de snacks en la oficina.
  • Medio día libre en tu cumpleaños.
  • Copago en seguro complementario de salud.
  • Reajuste anual de renta basado en IPC.
  • Bono anual por desempeño.
  • Eventos empresa y happy hours financiados por la compañía.
  • Acceso a plataforma de cursos de formación.
  • Convenios con gimnasios, descuentos y más.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Lead Data Engineer
  • Bertoni Solutions
Python Analytics SQL Azure

We are Bertoni Solutions, a multinational team uniting Latin American talent and Swiss precision. Since 2016, we have helped clients translate technology into success by combining the creativity and passion of Latin American professionals with the rigor and organizational mindset of Swiss culture. Our development team is located across Latin America, including Lima, and we deliver consulting software and digital transformation services to organizations worldwide, always working 100% remotely. We focus on innovative, impactful projects leveraging the latest technology trends and digital transformation initiatives, offering a truly multicultural and global collaboration environment.

This job offer is available on Get on Board.

Key Responsibilities

  • Design and develop scalable data pipelines using PySpark to support analytics and reporting needs.
  • Write efficient SQL and Python code to transform, cleanse, and optimize large datasets.
  • Collaborate with machine learning engineers, product managers, and developers to understand data requirements and deliver effective solutions.
  • Implement and maintain robust ETL processes to integrate structured and semi-structured data from multiple sources.
  • Ensure data quality, integrity, and reliability across all pipelines and systems.
  • Participate in code reviews, troubleshooting, and performance tuning activities.
  • Work independently and proactively identify and resolve data-related issues.
  • Contribute to cloud-based data solutions, specifically on Azure platforms such as Azure Data Factory, Synapse, ADLS, Databricks, and Fabric.
  • Support cloud migration initiatives and adopt DevOps best practices.
  • Provide guidance on best practices and mentor junior team members when needed.

Job Description and Requirements

We are looking for a highly skilled Lead Data Engineer with extensive experience in PySpark, SQL, Python, Azure Data Factory, Synapse, Databricks, and Microsoft Fabric. The candidate must have a solid understanding of ETL processes, data warehousing principles, and end-to-end data engineering workflows.

Required Skills and Experience:

  • 8+ years of experience working in cross-functional teams that include machine learning engineers, developers, product managers, and analytics teams.
  • 3+ years of hands-on experience developing and managing data pipelines using PySpark.
  • 3 to 5 years of experience with Azure-native services such as Azure Data Lake Storage (ADLS), Azure Data Factory (ADF), Azure Databricks, Azure Synapse Analytics, Azure SQL Database, and Fabric.
  • Strong programming skills in Python and SQL.
  • Proven expertise in ETL processes, data modeling, and data warehousing end-to-end solutions.
  • Self-driven, resourceful, and comfortable working in fast-paced, dynamic environments.
  • Excellent communication skills and fluency in written and spoken English at an advanced level (B2, C1 or C2 only).
  • Demonstrated leadership experience in current or previous projects.
  • Must be located in Central or South America due to nearshore position requirements.

Soft Skills: Effective communication, proactive problem-solving, collaboration, mentoring capacity, and adaptability to changing priorities and technologies are crucial to succeed in this role.

Desirable Skills

  • Databricks certification.
  • Knowledge of DevOps practices, including CI/CD pipelines and cloud migration best practices.
  • Familiarity with Azure Event Hub, IoT Hub, Azure Stream Analytics, Azure Analysis Services, and Cosmos DB.
  • Basic understanding of SAP HANA.
  • Intermediate experience with Power BI.

Why Join Us?

  • 100% Remote Work.
  • Multicultural and Diverse Environment.
  • Continuous Professional Development:.
  • Challenging and Innovative Projects.

More Details:

  • Contract type: Independent contractor (This contract does not include PTO, tax deductions, or insurance. It only covers the monthly payment based on hours worked).
  • Location: The client is based in the United States; however, the position is 100% remote for nearshore candidates located in Central or South America.
  • Contract/project duration: Initially 6 months, with extension possibility based on performance.
  • Time zone and working hours: Full-time, Monday to Friday (8 hours per day, 40 hours per week), from 8:00 AM to 5:00 PM PST (U.S. time zone).
  • Equipment: Contractors are required to use their own laptop/PC.
  • Start date expectation: As soon as possible.
  • Payment methods: International bank transfer, PayPal, Wise, Payoneer, etc.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer GCP Excluyente
  • coderslab.io
Java Python Agile NoSQL
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DATA ENGINEER para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply directly on Get on Board.

Funciones del cargo

  • Diseñar, desarrollar y mantener procesos de ingesta, transformación y carga (ETL/ELT) de datos para asegurar la disponibilidad y calidad de la información.
  • Crear y administrar pipelines de datos eficientes y escalables que soporten el flujo continuo de datos desde múltiples fuentes hacia los sistemas de almacenamiento y análisis.
  • Implementar y promover buenas prácticas en el manejo de datos, incluyendo seguridad, gobernanza, control de acceso y cumplimiento de normativas.
  • Desarrollar soluciones de procesamiento distribuido para manejar grandes volúmenes de datos en entornos cloud.
  • Gestionar y optimizar los servicios de Google Cloud Platform (GCP) relacionados con la ingeniería de datos, como Pub/Sub, Dataflow, Dataproc, Dataprep, Cloud Functions, BigQuery, Composer y Cloud Storage.
  • Colaborar con equipos multidisciplinarios para entender requerimientos de datos y traducirlos en soluciones técnicas robustas.
  • Realizar monitoreo, mantenimiento y mejora continua de los pipelines y sistemas de datos para garantizar alta disponibilidad y rendimiento.
  • Documentar procesos, arquitecturas y estándares técnicos relacionados con la ingeniería de datos.

Requerimientos del cargo

  • Experiencia comprobable en diseño y desarrollo de procesos ETL/ELT y pipelines de datos.
  • Sólidos conocimientos en Google Cloud Platform (GCP), especialmente en los servicios:
    • Pub/Sub
    • Dataflow
    • Dataproc
    • Dataprep
    • Cloud Functions
    • BigQuery
    • Composer
    • Cloud Storage
  • Dominio en programación con Python y Java para desarrollo de scripts, automatización y procesamiento de datos.
  • Conocimientos en bases de datos SQL y NoSQL, con experiencia en MongoDB y BigQuery.
  • Experiencia en procesamiento distribuido y manejo de grandes volúmenes de datos.
  • Conocimiento en buenas prácticas de seguridad y gobernanza de datos.
  • Capacidad para trabajar en equipos ágiles y multidisciplinarios.
  • Habilidades de comunicación efectiva para presentar soluciones técnicas y colaborar con otras áreas

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 18 MESES con posibilidad de extensión

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Financial Planning & Analytics Analyst
  • Wherex
  • Santiago (Hybrid)
Python Analytics Excel SQL

WherEX es una scale up tecnológica de comercio industrial con operaciones en México, Colombia, Chile y Perú 🚩

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!
Puedes enterarte un poco más de nosotros aquí

Apply without intermediaries from Get on Board.

Job functions

  • Realizar estudios y análisis específicos requeridos por distintas áreas.
  • Diseño de KPIs internos.
  • Generar y mantener los modelos de forecasting de la empresa.
  • Apoyar la creación y seguimiento de los presupuestos.
  • Apoyar el seguimiento de los resultados.
  • Desarrollar Dashboards y KPI’s financieros para la toma de decisiones y expansión del negocio

Qualifications and requirements

  • Ingeniero civil industrial.
  • 0 a 1 año de experiencia.
  • Manejo de excel avanzado.
  • Manejo de SQL básico.
  • Deseable conocimiento en programación.
  • Deseable uso de Python o herramienta similar.
  • Uso de herramientas de visualización (Power BI, Tableau, CartoDB o Google Studio).
  • Inglés.

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎 llevando a la oficina y al equipo tu soporte un día a la semana

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Linux Virtualization
En BC Tecnología, una consultora especializada en servicios IT con más de 6 años de experiencia, diseñamos y ejecutamos soluciones tecnológicas para clientes de sectores como servicios financieros, seguros, retail y gobierno. A través de un enfoque ágil y centrado en el cliente, formamos equipos de trabajo dedicados en áreas como infraestructura tecnológica, desarrollo de software y unidades de negocio. En este proyecto de 6 meses, se integrará un Ingeniero de Datos AWS para trabajar en la manipulación de grandes volúmenes de información aprovechando la nube y tecnologías modernas, contribuyendo a optimizar procesos y aportar valor mediante datos escalables.

Apply to this posting directly on Get on Board.

Responsabilidades y Tareas

  • Desarrollar y mantener pipelines de datos escalables y eficientes en entornos AWS.
  • Manipular grandes volúmenes de datos utilizando Python y SQL, asegurando calidad y rendimiento.
  • Ejecutar procesos ETL en la nube utilizando servicios AWS como EC2, S3, Glue, Lambda, Athena y Redshift.
  • Modelar datos y aplicar técnicas de exploración para facilitar el análisis y la toma de decisiones.
  • Optimizar procesos de ingesta y transformación de datos para maximizar valor y eficiencia.
  • Colaborar con equipos multidisciplinarios para entender necesidades y desarrollar soluciones técnicas alineadas a los objetivos del negocio.
  • Mantenimiento y operación bajo sistemas Linux para soporte a las soluciones implementadas.

Requisitos y Perfil

Buscamos un Ingeniero de Datos con 2 a 3 años de experiencia comprobable en roles similares, especialmente trabajando en entornos cloud, preferentemente AWS. Es indispensable un manejo avanzado de Python, SQL y Linux, así como experiencia aplicada en servicios clave de AWS como EC2, S3, Glue, Lambda, Athena y Redshift. El candidato ideal debe tener sólidos conocimientos en procesos ETL en la nube, modelamiento de datos y técnicas exploratorias que permitan optimizar el flujo y la calidad de los datos.
Valoramos perfiles analíticos, proactivos y orientados a la mejora continua que disfruten construyendo pipelines robustos y aplicando buenas prácticas en gestión de datos. Se requiere capacidad para trabajar en modalidad híbrida, así como habilidades comunicativas efectivas para colaborar con equipos técnicos y de negocio.
Se considera como deseable experiencia previa con COBOL SQL en entornos Mainframe, ampliando así su versatilidad técnica.

Deseables

Experiencia en COBOL SQL sobre sistemas Mainframe, que permita complementar las capacidades en entornos legacy.
Conocimientos adicionales en herramientas de automatización y monitoreo de procesos ETL.
Familiaridad con metodologías ágiles y herramientas colaborativas para integración en equipos multidisciplinarios.
Capacidad para documentar procesos y generarreports técnicos orientados a stakeholders.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2800 Tiempo completo
Data Engineer
  • ARKHO
Python Analytics Virtualization Amazon Web Services

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Official job site: Get on Board.

🎯 Objetivo del Rol

Liderar y ejecutar el desarrollo de pipelines de datos en proyectos de analytics, con una visión integral de arquitectura de datos end to end. Se espera que aplique su experiencia técnica para fomentar la mejora continua, el cumplimiento de objetivos y la entrega de productos tecnológicos de alta calidad. Será un referente técnico dentro del equipo, aportando conocimientos en herramientas, lenguajes e infraestructura, y participando activamente en la generación de soluciones robustas y escalables.

Funciones Principales:

  • Colaborar estrechamente con el líder de equipo y el equipo de implementación, entregando visibilidad técnica del avance de las iniciativas.
  • Apoyar en la definición, estimación y planificación de tareas para productos analíticos bajo metodologías ágiles.
  • Liderar la gobernanza técnica de la solución junto al cliente, participando en decisiones clave.
  • Diseñar e implementar arquitecturas de soluciones de datos en la nube de forma colaborativa.
  • Participar en el modelado de datos y desarrollo de modelos analíticos corporativos.
  • Investigar y profundizar en tecnologías necesarias para alcanzar los objetivos del proyecto.

🏹 Perfil del archer

En nuestra compañía valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:

  • Al menos 3 años en proyectos de analítica de datos.
  • Dominio avanzado de al menos un lenguaje de programación, preferiblemente Python.
  • Sólidos conocimientos en herramientas y servicios de datos en AWS (Glue, Lambda, S3, Athena, Redshift, Step Functions).
  • Experiencia en diseño de pipelines de datos y orquestación (por ejemplo, Airflow, Step Functions).
  • Familiaridad con arquitecturas modernas de datos como Data Lakes, Data Warehouses o Lakehouses.
  • Experiencia o conocimientos en modelado de datos utilizando enfoques como modelo dimensional, estrella y copo de nieve.

🌟 Beneficios del Archer

En ARKHO fomentamos una cultura de aprendizaje continuo, impulsamos la innovación tecnológica y promovemos un entorno de trabajo flexible, inclusivo y respetuoso, que valora tanto el desarrollo profesional como el bienestar personal.

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)
💰 Aguinaldos
🏥 Seguro complementario de salud (solo Chile)
🧘‍♀️ ARKHO Open Doors

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage ARKHO pays or copays health insurance for employees.
Computer provided ARKHO provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $800 - 1200 Tiempo completo
Data Engineer
  • Guinea Mobile SAC (Cuy Móvil)
Java Python PostgreSQL SQL

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer para conformar el equipo de TEC.

Apply only from getonbrd.com.

Funciones del cargo

Diseño de Infraestructura de Datos Escalable:

  • Crear sistemas robustos que soporten petabytes de datos con alta disponibilidad y rendimiento.

Automatización de Procesos de Integración:

  • Diseñar y gestionar pipelines automatizados para integración y limpieza de datos.

Colaboración con Analistas y Científicos de Datos:

  • Proveer datasets limpios, modelados y fácilmente accesibles.

Optimización de :

  • Identificar cuellos de botella en flujos de datos y aplicar soluciones para mejorar tiempos de respuesta.

Monitoreo de Flujos de Datos:

  • Implementar herramientas de monitoreo y alertas para garantizar la calidad y consistencia de los datos en tiempo real.

Requerimientos del cargo

  • Procesamiento de Datos:
    • Experiencia en frameworks como Apache Spark, Hadoop o Google Dataflow para procesamiento en grandes volúmenes de datos.
    • Conocimiento avanzado de batch processing y stream processing.
  • Bases de Datos y Almacenamiento:
    • Manejo de bases de datos relacionales (Oracle, PostgreSQL o SQL Server ) y NoSQL (MongoDB, DynamoDB, Cassandra).
    • Experiencia en la configuración y gestión servicios data warehouses como Snowflake, Redshift o BigQuery.
  • ETL/ELT:
    • Experiencia en la construcción y optimización de pipelines de datos usando herramientas como Apache Airflow, dbt, Talend o Luigi.
  • Programación:
    • Dominio de lenguajes como Python, Scala o Java, enfocados en la manipulación de datos.
    • Habilidades en scripting para automatización y manejo de grandes datasets.
  • Cloud Computing:
    • Familiaridad con servicios de datos en la nube como AWS Glue, Azure Data Factory o Google Cloud Dataflow.
    • Conocimientos en almacenamiento y gestión de datos en la nube: Amazon S3, Google Cloud Storage o Azure Blob Storage.
  • Calidad y Seguridad de Datos:
    • Implementación de procesos de data profiling, limpieza y validación de datos.
    • Experiencia en garantizar el cumplimiento de normativas como GDPR, HIPAA o similares.
  • Optimización de Consultas y Modelado de Datos Dimensionales:
    • Diseño de modelos de datos eficientes para análisis y consumo.
    • Desarrollo y optimización de queries SQL (CTES, Joins, Subqueries, etc) y otras herramientas.
  • Detallista: Capacidad para identificar inconsistencias y cuidar la calidad de los datos en cada etapa del proceso.
  • Proactivo/a: Capacidad para anticiparse a problemas, proponer mejoras y tomar iniciativa sin necesidad de esperar instrucciones.
  • Colaborativo/a: Comodidad para trabajar junto a analistas, desarrolladores o científicos de datos, fomentando el aprendizaje mutuo.
  • Flexible en la Colaboración: Valoramos a quienes se involucran donde pueden aportar, más allá de lo que indica su rol. Creemos que los equipos funcionan mejor cuando cada persona está dispuesta a sumar donde más se le necesita.
  • Enlace a repositorio en GitHub, GitLab o Bitbucket.
  • Certificaciones relevantes como Google Cloud Professional Data Engineer, AWS Certified Data Analytics, o similares.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4000 - 6500 Tiempo completo
Data Operations Lead
  • Thesis Driven
Python Machine Learning API Back-end

Thesis Driven is a specialized real estate media and data company dedicated to providing high-quality prospecting data to companies in the real estate industry. As a relatively small but highly profitable company, we are focused on scaling our operations.

We’re looking for a hands-on data operator to own and scale the enrichment of a high-value dataset of real estate developers across the U.S. and Canada. This role will drive scraping pipelines, integrate public data (e.g. building permits), and incorporate AI-powered enrichment workflows. You’ll work at the intersection of data engineering, product strategy, and real estate intelligence.

Apply without intermediaries through Get on Board.

Responsibilities

  • Maintain and expand scrapers targeting developer websites, permit portals, and public records
  • Integrate new data sources (APIs, CSVs, public datasets) into our core developer catalog
  • Build and refine AI-powered workflows using LLMs to enhance data (e.g., entity extraction, classification)
  • Normalize and de-duplicate records across multiple sources
  • Create lightweight QA processes and tools to monitor data quality
  • Make strategic decisions about which data points and sources are most valuable
  • Manage a small team of data entry specialists and freelancers

Qualifications and requirements

  • Strong Python skills (esp. for scraping, data wrangling, and light ML)
  • Experience working with unstructured and semi-structured data
  • Familiarity with public datasets (e.g., permit data, zoning, business registrations)
  • Prior work with LLM APIs (OpenAI, Claude, etc.) in a data context
  • Strong spoken and written English; capable of asynchronous remote communication

Nice-to-have skills

  • Familiarity with real estate or proptech data models
  • Experience with geospatial data
  • Exposure to orchestration tools (Airflow, Prefect) or no-code automation (Make, Zapier)
  • Familiarity with no-code tools like Bubble (our stack)

Conditions

We are a small yet profitable company committed to scaling our business and providing a dynamic work environment that encourages autonomy and professional growth. We support a remote work model, allowing you to join our team from anywhere while contributing to our ambitious growth plans.

By joining Thesis Driven, you will be part of a nimble organization that values your expertise and offers opportunities to lead sales initiatives in an exciting niche market. You will work directly with a motivated team focused on delivering data solutions that make a meaningful difference to our clients.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • ARKHO
  • Bogotá (Hybrid)
Python SQL Virtualization Amazon Web Services
ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!
🎯 Objetivo del Rol

Transformar datos complejos en soluciones concretas. Su misión principal será entender los desafíos del negocio, analizar la información disponible y diseñar modelos que realmente generen impacto.

This job is published by getonbrd.com.

Funciones Principales

  • Entender el contexto del cliente: qué quiere lograr, cuáles son sus indicadores clave y qué datos tiene disponibles.
  • Aplicar técnicas de análisis estadístico, machine learning y deep learning para resolver problemas específicos.
  • Diseñar y poner en marcha soluciones basadas en inteligencia artificial, incluyendo el uso de Large Language Models (LLMs) y embeddings.
  • Acompañar al cliente en la toma de decisiones, explicando alternativas de solución de forma clara y práctica.
  • Trabajar en entornos colaborativos y ágiles, con foco en soluciones escalables, seguras y robustas en la nube (principalmente con herramientas de AWS como SageMaker, S3, Lambda y Bedrock).
  • Colaborar activamente con el equipo, aportando ideas y compartiendo buenas prácticas.

Perfil del Archer

Buscamos un profesional proactivo, autónomo y con iniciativa, apasionado por resolver problemas complejos y que disfrute trabajar en equipo. Se valoran especialmente las ganas de aprender y desarrollar nuevas habilidades.
Requisitos técnicos y experiencia:
  • Mínimo 3 años de experiencia en roles similares enfocados en machine learning e inteligencia artificial.
  • Conocimiento sólido en técnicas de machine learning como clustering, análisis de componentes principales (PCA), regresión logística, entre otras.
  • Experiencia en desarrollo de modelos utilizando deep learning y en particular con Large Language Models y embeddings.
  • Dominio avanzado de Python y SQL.
  • Experiencia con librerías de análisis y machine learning como Pandas, Scikit-learn, Numpy y Matplotlib.
  • Familiaridad con servicios en la nube, especialmente AWS (SageMaker, S3, Lambda y Bedrock).
  • Título profesional en Ingeniería de Sistemas, Ingeniería Matemática o carreras afines.
  • Inglés de nivel intermedio es deseable, pero no obligatorio.

Beneficios

En ARKHO fomentamos una cultura de aprendizaje continuo, innovación tecnológica y un ambiente de trabajo flexible, inclusivo y respetuoso, que apoya tanto el desarrollo profesional como el bienestar personal.
  • 📆 Día administrativo semestral durante el primer año.
  • 🏖️ Week off: 5 días extra de vacaciones.
  • 🎉 Celebración de cumpleaños.
  • 📚 Ruta de entrenamiento y desarrollo profesional.
  • ☁️ Certificaciones AWS patrocinadas.
  • 🏡 Trabajo flexible, modalidad híbrida con opción a remoto.
  • 💍 Regalo y 5 días hábiles libres por matrimonio.
  • 👶 Regalos por nacimiento de hijos.
  • ✏️ Kit escolar.
  • 🤱 Beneficio de paternidad.
  • ❤️ Acceso a Bonda, plataforma de descuentos y bienestar.
  • 💰 Aguinaldos.
  • 🧘‍♀️ Programa ARKHO Open Doors para bienestar integral.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Analyst (SQL/Tableau)
  • HumanForest
  • Santiago (Hybrid)
Python MySQL PostgreSQL Data Analysis
What is Forest?

We are Forest, London’s most sustainable shared eBike operator. We bridge the gap between affordability and sustainability, using our advertising revenue to offer all users 10 minutes free cycling daily.
We have just raised a Series A funding round to double our fleet size in London, continuing to invest in our digital marketing proprietary tech, and starting our international expansion plans.
If you want to join a quick-moving and fast-growing company, making a difference in the micro-mobility industry, come join us.
Please note: our company is based in the UK and has Chilean Founders.
*This job is based in Chile (candidate must be based here), and reports to the team in Chile and the UK. Spanish and English fluency is mandatory.

Apply directly at getonbrd.com.

What are you going to do?

-Work with stakeholders throughout the organization to identify opportunities for leveraging company data to drive business solutions.
-Interpret data, analyze results using statistical techniques and provide ongoing reports.
-Coordinate with different functional teams to develop dashboards and monitor outcomes.
-Identify, analyze, and interpret trends or patterns in complex data sets.
-Work with management to prioritize business and information needs.
-Locate and define new process improvement opportunities.

What are we looking for?

-Educational background in Statistics, Mathematics, Engineering or Computer Science.

-At least 2+ years of experience in similar roles.

-Strong problem solving skills.

-Strong knowledge and experience with Tableau and/or Microsoft Power BI.

-Knowledge of statistics and experience using statistical packages for analyzing datasets (Excel, SAS, R, Python).

-Experience querying databases: PostgreSQL, Redshift, MySQL, BigQuery, etc.

-Strong experience and knowledge in SQL.

-Excellent written and verbal communication skills for coordinating across teams.

-A drive to learn and master new technologies and techniques.

-Fluent in English to communicate effectively with the UK team.

Bonus

-Experience developing with Python and FastAPI.
-Experience developing Data Pipelines.
-Understanding of Git and GitHub for version control and collaboration.
-Experience using project management and collaboration tools like Linear, Jira, Trello, or Asana.

What will you get in return?

- Play a key role in the transformation of sustainable urban mobility in our cities.

- Competitive compensation plan with plenty of development opportunities.

- Scale with a rapidly growing organization, working with a team of fun, experienced and motivated individuals, with highly growth opportunities.

- Private Health Insurance plan.

- 20 days holiday plus your birthday.

- Work for an international company that has a link between Chile and the UK.

- Bilingual mode of communication at work.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage HumanForest pays or copays health insurance for employees.
Computer provided HumanForest provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal HumanForest gives you paid vacations over the legal minimum.
Beverages and snacks HumanForest offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Operaciones Medios de Pago
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de ANALISTA DE OPERACIONES - MEDIOS DE PAGO para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this posting directly on Get on Board.

Funciones del cargo

  1. Desarrollo de Paneles:
    • Crear y mantener paneles interactivos en Power BI y Looker Studio para la visualización de datos.
    • Asegurar que los paneles reflejen métricas clave y sean accesibles para los usuarios finales.
  2. Explotación de Datos:
    • Realizar la extracción y transformación de datos desde diversas fuentes.
    • Implementar procesos de limpieza y validación de datos.
  3. Análisis de Datos:
    • Analizar grandes volúmenes de datos para identificar tendencias, patrones y oportunidades de mejora.
    • Generar informes analíticos que apoyen la toma de decisiones estratégicas.
  4. Extracción y Análisis Multiplataforma:
    • Integrar datos de diferentes plataformas y sistemas, asegurando una visión holística del rendimiento.
    • Colaborar con equipos de IT para optimizar la infraestructura de datos.
  5. Colaboración Interdepartamental:
    • Trabajar de manera colaborativa con otros departamentos para entender sus necesidades de datos y proporcionar soluciones efectivas.
    • Participar en reuniones de equipo para discutir resultados y proyecciones.
  6. Documentación:
    • Mantener documentación clara y concisa de procesos, análisis y hallazgos.
    • Presentar resultados de manera efectiva a diferentes niveles de la organización.

Requerimientos del cargo

Habilidades/Conocimientos Obligatorios

  • Herramientas y Tecnologías:
    • Power BI
    • GCP (Google Cloud Platform)
    • Looker Studio
    • SQL
    • Python
  • Educación:
    • Título universitario en áreas relacionadas (Ingeniería, Estadística, Ciencias de la Computación, etc.).
  • Experiencia:
    • Experiencia previa en análisis de datos o roles similares (preferentemente en el sector de medios de pago).
  • Habilidades Técnicas:
    • Dominio de SQL para la manipulación y consulta de bases de datos.
    • Conocimiento práctico de Python para análisis de datos y automatización de procesos.
    • Experiencia en el uso de herramientas de visualización (Power BI, Looker Studio).
  • Habilidades Blandas:
    • Excelentes habilidades de comunicación y presentación.
    • Capacidad para trabajar en equipo y colaborar con diferentes áreas.
    • Pensamiento analítico y atención al detalle.

POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Ingeniero de Datos Senior
  • foris.ai
Artificial Intelligence English Data Engineer Continual improvement process

Somos una empresa líder en Latinoamérica que ofrece soluciones cloud basadas en Inteligencia Artificial y servicios de consultoría para optimizar procesos críticos en la Educación Superior. Nuestro objetivo es transformar la experiencia digital de alumnos, docentes y staff académico mediante una suite de productos que automatizan más del 50% de las tareas manuales, optimizan hasta un 25% los costos y contribuyen a la reducción de la deserción estudiantil.

Contamos con más de 65 instituciones educativas clientes en 10 países, alcanzando a un millón de estudiantes. Buscamos expandir nuestra tecnología disruptiva a nuevos mercados internacionales, diseñando sistemas escalables capaces de soportar un crecimiento importante y diferentes ecosistemas complejos.

Somos un equipo multicultural y multidisciplinario que combina capacidades en ingeniería, matemáticas, desarrollo, diseño y consultoría, enfocados en llevar al sector EdTech a un nuevo nivel usando inteligencia artificial avanzada.

Job source: getonbrd.com.

¿En qué consistirá tu trabajo?

  • Ser experto funcional de nuestra suite de soluciones, comprendiendo y dominando a fondo la lógica y arquitectura de cada aplicación.
  • Liderar la implementación y puesta en marcha de nuestros productos y sus integraciones para asegurar despliegues fluidos y exitosos en nuestros clientes.
  • Trabajar con consultas SQL avanzadas para explotar, transformar y analizar grandes volúmenes de datos con rigor y eficiencia.
  • Diseñar, desarrollar e implementar procesos ETL robustos para manejar grandes flujos de información alineados con las necesidades de las universidades y Foris.
  • Aplicar modelado, análisis y automatización de datos utilizando Python de forma estructurada y escalable.
  • Colaborar estrechamente con equipos internos multidisciplinarios y con clientes externos para diseñar soluciones técnicas innovadoras que aporten valor real al negocio.
  • Documentar detalladamente cada solución para garantizar su trazabilidad, mantenibilidad y calidad a largo plazo.

Stack de herramientas y tecnologías :
Herramientas:

  • Athena
  • Glue data catalog
  • Amazon S3
  • Cloudwatch AWS
  • IAM AWS
  • AWS CLI
  • Postman
  • JSON / RESTful APIs

Lenguajes

  • TrinoSql
  • MySQL
  • SparkSql
  • PySpark
  • Python
  • PostgresSql
  • YAML

Perfil del cargo

Buscamos profesionales con formación técnica rigurosa en Ingeniería de Sistemas, Matemáticas, Inteligencia Artificial, Ciencia de Datos o carreras afines. Es indispensable haber complementado cualquier formación que no sea estrictamente técnico-científica con educación y experiencia práctica.

El candidato ideal cuenta con al menos 5 años de experiencia profesional consolidada y mínima experiencia de 3 años en consultoría tecnológica y/o procesamiento y análisis avanzado de datos. Este puesto no es para perfiles juniors ni para quienes buscan un rol intermedio; está destinado a quienes desean escalar profesionalmente resolviendo desafíos complejos y reales.

Es fundamental poseer un entendimiento profundo tanto del negocio educativo como del ecosistema de datos y tecnología que soporta nuestras soluciones. Debe ser capaz de identificar ineficiencias, proponer soluciones innovadoras y ejecutar sin necesidad de supervisión constante.

Además, el rol requiere excelentes habilidades de comunicación, particularmente en redacción y verificación de información, tanto en español como en inglés, debido a la interacción con herramientas de Inteligencia Artificial generativa y de optimización. Se valoran especialmente competencias en generación y curaduría de prompts para IA.

Buscamos una persona proactiva, orientada a la mejora continua, capaz de transformar procesos, productos y flujos de trabajo mediante modelos de datos, visualización y automatización, que aporte prácticas y referencias que eleven el estándar técnico del equipo desde el primer día.

Competencias y conocimientos deseables

Se valorará experiencia previa en ambientes EdTech o en la educación superior, conocimiento avanzado en plataformas de nube, especialmente en arquitecturas escalables para grandes volúmenes de datos y familiaridad con herramientas de IA aplicadas a la optimización operacional.

Habilidades en manejo de metodologías ágiles y coordinación de equipos multidisciplinarios serán un plus para facilitar la integración y entrega de soluciones.

Además, se considerarán positivamente conocimientos en visualización avanzada de datos, manejo de tecnologías de integración de datos en tiempo real, y experiencia en diseño de arquitecturas data-driven.

Beneficios y cultura organizacional

En Foris valoramos la diversidad y el bienestar de nuestros colaboradores. Ofrecemos horarios flexibles que permiten compatibilizar trabajo con otras actividades, además de permitir días libres para trámites administrativos, cumpleaños y festividades importantes.

Contamos con jornadas reducidas cada quince días los viernes, iniciando a las 9:00 y finalizando a las 15:00 hrs, junto con un día completo de vacaciones canjeable para celebrar tu cumpleaños.

Nuestra cultura promueve un ambiente multicultural e inclusivo, con un equipo equilibrado en género y conformado por profesionales de diversas nacionalidades. No exigimos códigos de vestimenta para el día a día, salvo eventos con clientes.

Organizamos actividades de integración, viajes y retiros corporativos para fortalecer el espíritu de equipo en entornos distendidos y agradables.

El trabajo será hibrido en Bogotá, Colombia y remoto desde Chile.

Internal talks foris.ai offers space for internal talks or presentations during working hours.
Company retreats Team-building activities outside the premises.
Computer repairs foris.ai covers some computer repair expenses.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1500 Tiempo completo
Data Engineer Junior
  • AgendaPro
  • Santiago (In-office)
Python Data Analysis SQL Artificial Intelligence

En AgendaPro, ayudamos a dueños y administradores de Centros de Estética, Salud, Belleza y Deporte a aceptar reservas de manera sencilla y vender sus servicios online. Como una de las Startups tecnológicas de Y Combinator de mayor crecimiento en Latinoamérica, contamos con más de 15.000 clientes en 17 países, incluyendo Argentina, Chile, Colombia, México y Perú. Nuestra misión es crear un software todo-en-uno simple e intuitivo que conecte estos negocios con el mundo digital, permitiéndoles enfocarse en lo importante: sus clientes y el crecimiento de sus negocios.

¿Preparado para crecer y enfrentar grandes desafíos con nosotros? 😎

Apply exclusively at getonbrd.com.

Responsabilidades del Puesto

Como Data Engineer Junior, serás el encargado de que los procesos de extracción, carga, y transformación de datos de AgendaPro --cientos de miles de datos por día-- funcionen a la perfección. Estos procesos nos permiten transformar datos complejos en hallazgos claros y útiles para los equipos de producto, tencología, marketing y finanzas, apoyando la toma de decisiones estratégicas. Entre tus responsabilidades se incluyen:

  • Automatizar y mantener funcionando los procesos de extracción, carga y transformación de datos
  • Apoyar en el análisis de datos utilizando estadísticas y metodologías cuantitativas para detectar patrones, anomalías y oportunidades.
  • Comunicar de forma clara y precisa tus hallazgos a distintos stakeholders mediante reportes y visualizaciones.
  • Colaborar con otros equipos para entender sus necesidades y apoyar en la definición de métricas y KPIs clave.
  • Participar activamente en reuniones y sesiones de trabajo en nuestras oficinas en Santiago, aportando una visión fresca y orientada a resultados.

Requisitos del Candidato

Buscamos un profesional con título universitario en áreas STEM (Ciencia, Tecnología, Ingeniería o Matemáticas) que tenga una base sólida en análisis estadístico. No es necesaria experiencia previa, pero sí un fuerte compromiso con la calidad y el aprendizaje continuo.

Requisitos específicos

  • Título universitario en matemáticas, estadística, ingeniería, informática, astronomía u otra carrera STEM
  • Experiencia o formación destacada en estadística y análisis de datos, con comprensión robusta de métodos estadísticos aplicados.
  • Haber usado IA en al menos 10 ramos de la U, en prácticas profesionales o en otros trabajos.
  • Disponibilidad para trabajar de manera presencial a tiempo completo en nuestras oficinas ubicadas en Santiago de Chile.

Cómo te apoyaremos

  • Durante la primera semana, partirás con un curso exprés de programación asistida por IA.
  • Durante el primer mes, te daremos una serie de tareas a cumplir, en grado ascendiente de dificultad. Te apoyaremos con cursos, material de estudio y guía constante.
  • Al final del tercer mes, dependiendo de tu rendimiento, te permitiremos escoger entre distintos roles: Data Engineer, Data Analyst o SDE.

Habilidades y Experiencia Deseables

  • Usas una IA como ChatGPT o Claude varias veces por día
  • Entiendes SQL, Python, R u otros lenguajes para la manipulación y consulta de bases de datos
  • Te expresas muy bien en español tanto hablado como escrito
  • Explicas en simple lo que es complejo

Beneficios y Cultura

  • El puesto es presencial en Santiago, Chile, contando con una oficina cómoda muy cercana al metro y con estacionamientos de bici
  • Incluimos stock options dependiendo de tu performance
  • Vacaciones sobre lo legal

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage AgendaPro pays or copays health insurance for employees.
Computer provided AgendaPro provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal AgendaPro gives you paid vacations over the legal minimum.
Beverages and snacks AgendaPro offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Científico de Datos
  • Contac Ingenieros
  • Santiago (Hybrid)
Python Data Analysis Artificial Intelligence Machine Learning

Somos una empresa tecnológica con más de 40 años de trayectoria, especializada en soluciones de informática industrial, analítica avanzada, automatización, control de procesos y mejora continua. Colaboramos con empresas líderes de las industrias de procesos tales como minería, pulpa y papel y energía, brindando servicios de alto impacto en Chile y en diversos países de Latinoamérica.

This company only accepts applications on Get on Board.

Funciones Principales

  • Desarrollar, desplegar, mantener y mejorar modelos predictivos y prescriptivos.
  • Automatizar procesos de Machine Learning para optimizar análisis y toma de decisiones.
  • Desarrollar documentación técnica y explicativa de los modelos implementados.
  • Crear visualizaciones interactivas utilizando Dash (Plotly) para comunicar resultados a clientes y equipos.
  • Asegurar la disponibilidad y calidad constante de las salidas de los modelos.
  • Poner en producción los modelos desarrollados para su uso práctico en el entorno productivo.
  • Interactuar directamente con clientes finales, entendiendo sus procesos específicos y presentando hallazgos y resultados de manera clara y efectiva.

Requisitos

Formación Académica: Ingeniero Civil Electricista, Matemático, Químico u otra carrera afín, con experiencia demostrable.

Experiencia: De 2 a 4 años en roles relacionados con análisis de datos, desarrollo de modelos estadísticos o de Machine Learning.

Conocimientos Técnicos:

  • Dominio avanzado de Python para manipulación de datos, desarrollo de modelos y automatización.
  • Experiencia y conocimientos en Machine Learning y estadística aplicada.

Habilidades blandas: Capacidad analítica, pensamiento crítico, comunicación efectiva y orientación a soluciones innovadoras. Proactividad para aprender y adaptarse a distintos contextos y necesidades de clientes, así como trabajo colaborativo con equipos multidisciplinarios.

Conocimientos Deseables

  • Experiencia con procesos mineros que permita una mejor comprensión de los datos y contextos de aplicación.
  • Manejo en tecnologías emergentes como Inteligencia Artificial Generativa (Gen AI) para potenciar soluciones innovadoras.

Beneficios

  • Seguro complementario de salud que contribuye al bienestar integral.
  • Cafetería para favorecer un ambiente cómodo y accesible.
  • Estacionamiento para bicicletas y motos, promoviendo medios de transporte sustentables.

El puesto ofrece una modalidad híbrida, combinando trabajo en oficina ubicada en la comuna de La Reina, Santiago, con teletrabajo. Formarás parte de un equipo comprometido con la innovación, en un ambiente de colaboración y desarrollo profesional constante.

Partially remote You can work from your home some days a week.
Health coverage Contac Ingenieros pays or copays health insurance for employees.
Computer provided Contac Ingenieros provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Técnico de Datos IA
  • Robotia
  • Santiago (Hybrid)
Python Git Excel Linux

Somos Robotia, una empresa joven y líder en el desarrollo de soluciones de visión artificial para procesos industriales, específicamente orientada a la minería y la industria a nivel nacional e internacional. Nuestro enfoque está en el desarrollo de tecnologías basadas en inteligencia artificial para apoyar la automatización y la toma de decisiones en tiempo real, contribuyendo así a la transformación digital del sector minero y otros procesos industriales relevantes.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

🎯 Objetivo del cargo
Buscamos una persona organizada y con habilidades operativas en gestión de datos para sumarse al equipo de IA. Será responsable de preparar, organizar y mantener los datos que alimentan nuestros modelos de IA, además de coordinar al equipo remoto de etiquetadores (4-5 personas).

👨‍💻 ¿Qué harás?

  • Gestionar y organizar datos no estructurados (imágenes y videos) de proyectos de IA
  • Coordinar y supervisar el trabajo del equipo de etiquetado
  • Controlar calidad del etiquetado y preparar datasets validados
  • Apoyar en procesos de minería de datos
  • Proponer mejoras al flujo operativo (scripts, automatización, base de datos no estructurada, etc.)

Requerimientos del cargo

  • Formación técnica o profesional afín
  • 1 a 3 años de experiencia en manejo de datos
  • Python básico/intermedio
  • Manejo de bash (Linux) y Excel intermedio/avanzado
  • Deseable: Git, experiencia con herramientas de etiquetado (CVAT u otras) y proyectos de visión artificial, librerias como pandas, OpenCV, NumPy.

Condiciones

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Jornada de Lunes a Viernes de 8.30 a 17.30 horas, 40 horas semanales.

o Café de grano gratis en oficina.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año para trámites personales (no vacaciones)

o Día de cumpleaños libre.

o Contrato a 12 meses, renovación a indefinido según evaluación.

o Seguro complementario de salud.

Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Robotia pays or copays health insurance for employees.
Computer provided Robotia provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Robotia offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer (AWS Data Lakes)
  • Niuro
Python Git SQL Virtualization
Niuro is a leading global technology talent provider specializing in connecting elite tech teams with top-tier U.S.-based companies. Our mission is to simplify global talent acquisition and maximize project quality through innovative and efficient solutions. We empower autonomous, high-performance teams by handling all administrative aspects such as hiring, payments, and training, enabling our professionals to focus fully on delivering exceptional results. Within this context, we collaborate on impactful industrial data projects with a strong emphasis on innovation and technical excellence. Our teams contribute to challenging projects that leverage cutting-edge data engineering techniques, particularly in cloud-based environments, ensuring both professional growth and meaningful contributions to the client’s success.

Exclusive to Get on Board.

Role and Responsibilities

As a Data Engineer specializing in AWS Data Lakes, you will play a pivotal role in architecting, building, and managing scalable and robust data lake solutions on the AWS cloud platform. Your primary responsibilities will include designing and implementing data ingestion pipelines, optimizing data transformation processes, and ensuring data quality and integrity to power analytics and business intelligence initiatives.
Key tasks include:
  • Designing and maintaining data lakes using AWS services such as S3, Glue, Athena, Lambda, and Step Functions.
  • Developing and optimizing data processing workflows with PySpark and Python to transform raw data into actionable datasets.
  • Writing efficient SQL queries for data extraction and manipulation.
  • Collaborating closely with U.S.-based cross-functional teams to understand requirements and deliver solutions that align with business objectives.
  • Monitoring, troubleshooting, and improving the performance and reliability of data platforms.
You will be part of a remote, agile, and collaborative environment where continuous improvement and innovation are encouraged.

Skills and Experience Required

We are looking for a motivated Data Engineer with solid experience building and managing data lakes on AWS. The ideal candidate will demonstrate proficiency with core AWS services including S3, Glue, Athena, Lambda, and Step Functions, and have strong programming skills in Python and SQL for processing and transforming data.
Essential qualifications include:
  • Hands-on experience implementing scalable data lake architectures on AWS.
  • Competence with PySpark for distributed data processing.
  • Strong Python programming skills with the ability to create clean, maintainable code.
  • Solid SQL skills for complex queries and data manipulation.
  • Effective communication skills in conversational English to collaborate with teams and stakeholders based in the United States.
Soft skills necessary for success include a proactive attitude, problem-solving mindset, strong attention to detail, and the ability to work independently within a remote work context.

Additional Skills and Technologies (Nice to Have)

While not mandatory, the following skills will enhance your fit for this role and our projects:
  • Experience with backend frameworks and libraries such as FastAPI, Pydantic, and Gunicorn.
  • Familiarity with AWS SDKs such as Boto3 for AWS service integration.
  • Knowledge of web technologies including Aestiva HTML/OS.
  • Containerization and DevOps skills, particularly using Docker.
  • Experience with continuous integration and deployment tools like TeamCity.
  • Version control expertise using GitHub or Gitea.

What We Offer

Joining Niuro means becoming part of an innovative, supportive, and high-performing global community focused on technological excellence. We offer a fully remote position allowing you to work from anywhere in the LATAM region, providing flexibility and work-life balance.
We are committed to your continuous professional growth through ongoing technical and soft skills training, leadership development programs, and opportunities to work on impactful and technically challenging industrial data projects.
Niuro also offers a strong administrative support system, so you can focus entirely on your work without distractions related to hiring, payments, or HR processes.
We maintain a long-term vision for our collaborations, with the possibility of transitioning to stable full-time employment after the initial contract, reflecting our dedication to building lasting relationships with our team members.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1100 - 1400 Tiempo completo
Administrador de Bases de Datos (DBA) Controller Call Center
  • S3 Chile
  • Santiago (In-office)
Data Analysis Excel SQL Business Intelligence

S3 Chile es una empresa especializada en la entrega de servicios de Outsourcing enfocados en los procesos de negocios de sus clientes, con una fuerte presencia en la gestión de operaciones relacionadas con el área de Contact Centers y análisis de datos. El equipo está comprometido con la innovación tecnológica y la mejora continua, apoyando a sus clientes mediante soluciones de análisis de datos y reportes que optimizan la operación de campañas y segmentaciones dentro del entorno de call centers, utilizando herramientas avanzadas de Business Intelligence y administración de bases de datos.

Apply to this posting directly on Get on Board.

Responsabilidades

  • Diseñar, desarrollar y mantener reportes y dashboards que faciliten la visualización y toma de decisiones para las operaciones del call center.
  • Gestionar bases de datos y segmentaciones, asegurando la integridad, disponibilidad y actualización oportuna de la información.
  • Analizar grandes volúmenes de datos para detectar oportunidades de mejora en los procesos y campañas, aportando con insights basados en datos reales.
  • Colaborar estrechamente con el equipo de Business Intelligence para optimizar procesos, mejorar la calidad de la información y automatizar tareas relacionadas con el análisis y la generación de reportes.

Requisitos

Buscamos un profesional con formación en Ingeniería o carreras afines, que cuente con experiencia en Business Intelligence o análisis de datos, idealmente en entornos de Contact Centers. Es imprescindible un manejo avanzado de SQL para administrar y consultar bases de datos complejas, así como experiencia con herramientas de visualización de datos como Power BI o similares. El candidato debe contar con conocimientos avanzados de Excel para procesamiento y análisis de información.

Además, se valorará experiencia previa o conocimiento en Genesys Cloud, una plataforma líder en gestión de centros de contacto, lo que facilitará la integración y administración de las campañas vía base de datos.

Las habilidades blandas incluyen capacidad analítica, orientación al detalle, trabajo colaborativo, proactividad en la mejora continua y una actitud hacia el aprendizaje constante de nuevas tecnologías.

Deseable

Se valorará positivamente experiencia específica en administración y optimización de campañas en call centers, conocimiento en otras plataformas de gestión de centros de contacto, y habilidades en programación para automatización de reportes o tareas analíticas (por ejemplo, Python o R). También es deseable experiencia en diseño de dashboards interactivos y manejo de grandes volúmenes de datos.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos.
👥 Un equipo comprometido y un entorno de aprendizaje continuo, en línea con los nuevos desarrollos tecnológicos.En S3 Chile fomentamos una cultura orientada a datos y mejora continua, con foco en la innovación y crecimiento profesional constante. Formarás parte de un equipo que valora el trabajo colaborativo y la actualización permanente de sus conocimientos.

POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Engineer Azure Salesforce
  • BC Tecnología
Python Git REST API SQL
En BC Tecnología somos una consultora líder en servicios de TI que brinda soluciones integrales en infraestructura, desarrollo de software y outsourcing para clientes de sectores como servicios financieros, seguros, retail y gobierno. Actualmente, estamos desarrollando un proyecto innovador enfocado en la creación y optimización de pipelines de datos en la nube, utilizando tecnologías de Azure y Salesforce. Buscamos integrar grandes volúmenes de datos para transformar la información en activos estratégicos a través de análisis avanzados y modelos de datos robustos, apoyando a áreas de BI y Data Science para mejorar la toma de decisiones del negocio.

Apply to this job through Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos escalables y eficientes en Azure para la integración desde Salesforce, utilizando APIs REST y SOAP.
  • Gestionar la ingesta y almacenamiento de datos en Azure Data Lake Gen2, Azure SQL y Synapse Analytics para facilitar análisis avanzados y reporting.
  • Automatizar flujos de trabajo mediante Azure Data Factory (ADF), Logic Apps y Databricks asegurando la calidad y consistencia de los datos.
  • Implementar controles rigurosos de calidad, limpieza y transformación de datos según políticas corporativas de gobernanza y seguridad.
  • Colaborar de manera interdisciplinaria con equipos de Business Intelligence, Data Science y áreas de negocio para alinear los desarrollos con requerimientos funcionales.
  • Documentar detalladamente los procesos ETL/ELT y mantener actualizado el inventario de flujos y pipelines para facilitar la gestión y mantenimiento a futuro.

Requisitos y perfil del candidato

Buscamos un Data Engineer con al menos 3 años de experiencia en entornos cloud, preferentemente trabajando con Azure y Salesforce. El candidato ideal debe poseer experiencia práctica integrando datos desde Salesforce utilizando APIs REST, Bulk API y herramientas de Azure Data Factory.
Se requiere un conocimiento profundo en tecnologías clave de Azure como Azure Data Factory, Data Lake Gen2, Azure SQL y Synapse, así como experiencia en modelado de datos con esquemas en Estrella y Copo de Nieve.
Habilidades técnicas complementarias incluyen Python, PySpark, T-SQL y manejo avanzado de JSON/XML. Además, el candidato debe estar familiarizado con el uso de sistemas de control de versiones como Git y tener capacidad para trabajar en equipos multidisciplinarios bajo metodologías ágiles.
Valoramos competencias blandas como la proactividad, enfoque al detalle, capacidad analítica, buenas habilidades de comunicación y orientación al trabajo colaborativo.

Habilidades y certificaciones deseables

Es altamente valorado contar con certificaciones oficiales como Microsoft Azure DP-203, Power BI PL-300 y Scrum Master que respalden el conocimiento técnico y metodológico.
Contar con un nivel de inglés intermedio, tanto oral como escrito, es deseable para la comunicación con equipos globales y documentación técnica.
Experiencia previa en proyectos de integración de datos a gran escala y familiaridad con tecnologías complementarias como Logic Apps y Databricks serán consideradas un plus.

¿Qué ofrecemos?

En BC Tecnología promovemos un entorno colaborativo y basado en el aprendizaje continuo, donde valoramos el compromiso y el crecimiento profesional.
Nuestra modalidad de trabajo es 100% remoto, abierta a profesionales ubicados en toda Latinoamérica, lo que permite flexibilidad y balance personal.
Formarás parte de proyectos innovadores con clientes de alto nivel en diferentes industrias, en un clima laboral inclusivo, respetuoso y orientado al desarrollo tanto técnico como profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3500 Tiempo completo
Data Engineer Azure (Salesforce)
  • BC Tecnología
Python Git JSON TSQL
En BC Tecnología, una consultora de TI con 6 años de experiencia, nos especializamos en proveer soluciones tecnológicas a clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en la formación de equipos ágiles para áreas de infraestructura, desarrollo de software y unidades de negocio, gestionando proyectos, outsourcing y soporte IT. Actualmente, buscamos incorporar un Data Engineer con experiencia en Azure y Salesforce para un proyecto 100% remoto dirigido a candidatos de LATAM, buscando potenciar nuestro equipo con talento especializado en ingeniería de datos en la nube.

This company only accepts applications on Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables en Azure, extrayendo información desde Salesforce utilizando API REST y SOAP.
  • Integrar y consolidar datos en Azure Data Lake Gen2, Azure SQL Database y Synapse Analytics para asegurar la disponibilidad y fiabilidad de la información.
  • Automatizar flujos ETL utilizando herramientas como Azure Data Factory (ADF), Logic Apps y Databricks para optimizar procesos y minimizar errores manuales.
  • Implementar controles estrictos de calidad y limpieza de datos para garantizar la integridad y precisión en todos los conjuntos de datos procesados.
  • Colaborar estrechamente con los equipos de Business Intelligence, Data Science y áreas de negocio para entender requerimientos y entregar soluciones alineadas a objetivos estratégicos.
  • Documentar detalladamente los procesos ETL y asegurar el cumplimiento de políticas de gobernanza de datos, seguridad y mejores prácticas en la nube.

Requisitos y habilidades necesarias

Buscamos un Data Engineer con al menos 3 años de experiencia comprobable trabajando con tecnologías cloud, especialmente en plataformas Microsoft Azure orientadas a la integración de datos desde Salesforce.
Es fundamental que el candidato tenga experiencia real y práctica en la integración de datos mediante APIs de Salesforce (REST, Bulk API) y el uso de Azure Data Factory para la orquestación de pipelines.
Además, se requieren conocimientos sólidos en:
  • Azure Data Factory para construir, automatizar y monitorear pipelines de datos.
  • Azure Data Lake Gen2 para el almacenamiento escalable y seguro de grandes volúmenes de datos.
  • Azure SQL Database y Synapse Analytics para procesamiento y análisis avanzado.
  • Power BI para visualización e interpretación de datos.
  • Lenguajes de programación y scripting como Python, PySpark y T-SQL para manipulación y transformación de datos.
  • Control de versiones con Git.
  • Modelado de datos usando esquemas estrella y copo de nieve, optimizando bases de datos y consultas.
  • Manejo avanzado de formatos de datos complejos como JSON y XML.
El candidato debe ser capaz de trabajar de forma autónoma, tener habilidades comunicativas para colaborar con múltiples equipos y orientarse a resultados con atención al detalle.

Habilidades y certificaciones deseables

  • Certificación Microsoft Azure Data Engineer (DP-203), demostrando dominio avanzado en servicios de datos de Azure.
  • Certificación Power BI Data Analyst (PL-300) para mejorar la capacidad de visualización y análisis de datos.
  • Certificación Scrum Master, lo que contribuiría a una integración más efectiva dentro de equipos ágiles y proyectos iterativos.
  • Nivel de inglés intermedio, tanto oral como escrito, para interactuar en equipos multiculturales y documentación técnica en inglés.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Ofrecemos modalidad 100% remota con apertura a talentos de toda Latinoamérica, garantizando flexibilidad y autonomía en la gestión del tiempo.
Participarás en proyectos innovadores y desafiantes con clientes relevantes en sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional continuo.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Java Python Git SQL
Genesys Tecnologías de Información SpA es una empresa consolidada en Latinoamérica con más de 30 años de experiencia en el mercado, especializada en soporte y mantenimiento de aplicaciones, RPA, inteligencia artificial, QA Automation, staff augmentation, cloud y más. Acompañamos a las empresas en su camino de transformación digital mediante tecnologías de última generación como Cloud, Data Analytics, Artificial Intelligence y Process Automation. Nuestro equipo multidisciplinario colabora estrechamente con la matriz en Santiago y otras operaciones para brindar soluciones tecnológicas que elevan el estándar tecnológico de las organizaciones.

Official source: getonbrd.com.

Responsabilidades

  • Diseñar y desarrollar canalizaciones de datos (ETL/ELT) robustas y eficientes.
  • Colaborar con equipos de ingeniería para asegurar la integración y calidad de los datos.
  • Implementar y gestionar bases de datos y data warehouses escalables.
  • Optimizar el rendimiento de las bases de datos y sistemas de almacenamiento de datos.
  • Garantizar la calidad, integridad y seguridad de los datos dentro de los sistemas.
  • Automatizar procesos de ingestión y transformación de datos para eficiencia operativa.
  • Monitorizar y solucionar problemas relacionados con los sistemas de datos.
  • Documentar procesos, arquitecturas, y mejores prácticas relacionadas con el manejo de datos para facilitar la continuidad y mejora.

Descripción

Buscamos un Data Engineer talentoso y motivado para integrarse a nuestro equipo de datos. El candidato ideal tendrá experiencia demostrable en roles similares, con habilidades para diseñar, construir y mantener sistemas de datos escalables que faciliten el análisis y la toma de decisiones dentro de la organización.
Requisitos imprescindibles incluyen una licenciatura en Ciencias de la Computación, Ingeniería Informática, Matemáticas o un campo relacionado. Debe poseer conocimientos profundos en SQL y experiencia con bases de datos relacionales y no relacionales, además de manejar grandes volúmenes de datos y trabajar con data lakes.
Es fundamental la experiencia con herramientas de procesamiento de datos como Apache Spark y lenguajes de programación Python. También exigimos conocimiento y experiencia con Google Cloud Platform (Composer, Cloud Functions, BigQuery, Dataproc, etc.), uso de Terraform y git para la gestión de infraestructura y código.
Se valoran igualmente las habilidades analíticas, la capacidad para resolver problemas complejos, excelentes habilidades de comunicación y la capacidad de trabajar colaborativamente en equipo. Además, el candidato debe poseer un nivel de inglés intermedio (B1+) para poder participar activamente en reuniones sin dificultades.

Deseable

  • Conocimientos en el lenguaje de programación Java.
  • Certificaciones relevantes en tecnologías de datos y cloud.
  • Experiencia trabajando en equipos ágiles.

Beneficios

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 5000 Tiempo completo
Data Engineer/Science
  • Ceibo
  • Santiago (Hybrid)
Python Soporte técnico Apache Spark Back-end

En Ceibo, estamos a la vanguardia de la innovación tecnológica y la sostenibilidad, impulsando soluciones basadas en datos para transformar la toma de decisiones dentro de la compañía. Nuestro equipo de Data Science trabaja para convertir datos complejos en información accesible y valiosa que apoye diversos procesos internos. Nos encontramos en una etapa de consolidación y expansión, donde la integración eficiente de datos es clave para acelerar el impacto estratégico y operativo.

Apply exclusively at getonbrd.com.

Responsabilidades principales

Como Data Engineer con enfoque en Data Science, serás responsable de estructurar flujos de datos complejos, garantizando su uso eficiente en múltiples procesos de la empresa, que van desde la consulta diaria hasta análisis avanzados. Tendrás un rol estratégico fortaleciendo soluciones basadas en datos que aceleran la toma de decisiones en toda la organización.

Entre tus funciones destacadas estarán:

  • Diseñar, implementar y optimizar pipelines de datos robustos que integren tanto sistemas sincrónicos como asincrónicos, apoyándote en herramientas de última generación, incluyendo Spark, DataFlow y otras tecnologías relevantes.
  • Transformar y preparar grandes volúmenes de datos para facilitar el acceso y análisis por diferentes equipos y procesos.
  • Realizar consultas exploratorias y desarrollar scripts eficientes para la manipulación y comprensión de la información disponible.
  • Decidir la arquitectura más adecuada para almacenar, organizar y vincular datos provenientes de diversas fuentes, asegurando su disponibilidad futura y escalabilidad.
  • Colaborar con equipos multidisciplinarios para asegurar la correcta integración y uso de los datos dentro de la empresa.

Perfil y experiencia requerida

Buscamos un profesional con pensamiento lógico y una sólida formación cuantitativa, idealmente en ingeniería, física, matemáticas o carreras afines que den un soporte sólido para el modelamiento y el manejo avanzado de datos.

Es fundamental contar con al menos tres años de experiencia programando en uno o más lenguajes, preferentemente Python, aunque no es excluyente. Deberás tener experiencia demostrable en infraestructura de datos, modelado y manejo de grandes volúmenes de información.

Además, deberás mostrar capacidad para diseñar e implementar pipelines de datos complejos y modelos dimensionales, integrando sistemas variados y utilizando tanto herramientas propias como externas. Se valora especialmente la habilidad para pensar y estructurar cómo se deben organizar y almacenar los datos para maximizar su utilidad.

Buscamos a alguien capaz de construir el rompecabezas completo: no solo trabajar con piezas ya existentes, sino también crear nuevas piezas y diseñar la forma exacta en que encajan para ofrecer soluciones óptimas.

Habilidades y conocimientos deseables

Se valorarán conocimientos adicionales en tecnologías como Apache Spark, Apache Beam, Google DataFlow u otras plataformas similares para procesamiento de datos en batch y streaming. También apreciamos experiencia en modelamiento dimensional avanzado y en la integración de sistemas tanto sincrónicos como asincrónicos.

Además, es deseable poseer habilidades interpersonales para colaborar estrechamente con equipos multidisciplinarios, capacidad para trabajar en entornos ágiles y orientados a la mejora continua, y un enfoque proactivo para resolver problemas complejos relacionados con la gestión de datos.

Beneficios

En Ceibo, promovemos la innovación, el aprendizaje continuo y la contribución a proyectos tecnológicos con impacto sostenible. Ofrecemos un ambiente laboral colaborativo, flexible y orientado a resultados, con oportunidad de crecimiento profesional dentro de una empresa comprometida con la transformación digital y la sustentabilidad.

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Ceibo pays or copays life insurance for employees.
Meals provided Ceibo provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Ceibo pays or copays health insurance for employees.
Dental insurance Ceibo pays or copays dental insurance for employees.
Computer provided Ceibo provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Ceibo gives you paid vacations over the legal minimum.
Beverages and snacks Ceibo offers beverages and snacks for free consumption.
Parental leave over legal Ceibo offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • Haystack News
  • Lima (In-office)
Python Data Analysis SQL NoSQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack feature at Google IO: https://www.youtube.com/watch?v=-YawUi6qPck

Apply to this job directly at getonbrd.com.

Job functions

We are looking for an outstanding Data Scientist to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Data Science, Machine Learning, and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

This job is published by getonbrd.com.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Tienda Pago
  • Ciudad de México (Hybrid)
Python SQL Big Data Back-end

✨ ¡En Tienda Pago, estamos revolucionando el mundo de las finanzas en Latinoamérica! ✨

Somos una fintech multicultural 🌎 con operación en México y Perú y colaboradores en Colombia, Argentina, República Dominicana ¡y más países! 🚀 Nuestra misión es única: impulsar a las tienditas y bodegas de barrio a crecer💪. ¿Cómo lo hacemos? A través de una plataforma digital innovadora que les da acceso a créditos para que puedan surtirse mejor y vender más 🛍️. Ofrecemos préstamos personales, crédito de inventario y recargas de celular, ¡todo con la última tecnología! 📲

En Tienda Pago, creemos en la inclusión financiera a través de la innovación💡. Llevamos + de 10 años haciendo la diferencia en la base de la pirámide económica, brindando oportunidades a quienes más lo necesitan💖.

¡Seguimos creciendo! Estamos búsqueda de un Data Engineer en CDMX para incorporar en nuestro equipo de Tech🤝

Originally published on getonbrd.com.

¿Cuál es el objetivo principal de la posición? 🧑‍💻

Buscar un enfoque estratégico, liderar proyectos de medios a complejos, establecer las mejores prácticas, ejecución de tareas complejas. El candidato ideal es un profesional que trabaje indispensablemente con autonomía, lidere proyectos medios a complejos, establezca las mejores prácticas y actúe como mentor para los miembros más junior del equipo. Busque un enfoque estratégico, responsable de la modelación de datos y la toma de decisiones que afectarán la escalabilidad y eficiencia a largo plazo.

¿Cuáles serán tus principales responsabilidades? 🤔

  • Diseño y construcción de arquitecturas de modelos escalables y robustas.
  • Experiencia para implementación de diferentes técnicas de modelado como datawarehouse, data lakes y data mesh, utilizando metodologías ágiles.
  • Habilidad para diseñar, desarrollo y mantenimiento de los procesos de ingesta e integración de datos, modelos de análisis y tableros de control en esto deberá incluir optimizar pipelines complejos reduciendo costos y mejorando eficiencia.
  • Desarrollar set de datos que sean incluidos en procesos de minería y modelado de datos para datos estructurados y no estructurados.
  • Habilidad para entender los objetivos del negocio y traducirlos en una estrategia de datos a corto, mediano y largo plazo.
  • Realizar flujo completo para un proyecto de manera autónoma: análisis, diseño y bajar la idea para que él/ella o alguien del equipo lo pueda desarrollar, seguimiento hasta después de la entrega.
  • Autonomía para el manejo e interacción con las áreas de negocio.
  • Tener autoridad para tomar decisiones técnicas y que pueda presentar los resultados de forma clara orientados a los diferentes Stakeholders.
  • Detectar, diseñar e implementar nuevos atributos, estructuras, métricas o indicadores de acuerdo con las políticas de calidad, seguridad y gobernanza de Datos de Tienda Pago.
  • Capacidad para guiar a otros ingenieros, revisar el código y fomentar crecimiento profesional

¿Qué requerimos de ti para hacer un buen match? 💘

  • Mínimo 4 años de experiencia en ingeniería de datos.
  • Manejo de SQL Avanzado.
  • Lógica de programación, idealmente en Python, pero podemos considerar profesionales en otros lenguajes.
  • Implementación de colas de mensajes y servicios de mensajería y streaming.
  • Integración de datos (Data Lake, Data Warehouse, SQL).
  • Modelado de datos.
  • Abstracción y conceptualización de ideas.
  • Relación de patrones y piezas faltantes.
  • Gobernanza de datos y seguridad.
  • Experiencia en automatización de infraestructura.
  • Disponibilidad para trabajar full time - híbrido. 90% remoto; se pide ir a la oficina cerca de 2 veces al mes. Estamos ubicados en Calle Buffon, No. 46, Piso 9, Colonia Anzures, Miguel Hidalgo.CDMX, CP. 11590.

Deseables (NO son obligatorios, solo son un plus)

  • Plataforma Azure, Integration Services, DBT, DAX, Power BI (de intermedio a avanzado) .

Algunos de Nuestros Beneficios en México 🤩

  1. Aguinaldo superior a la ley.
  2. Prima Vacacional 100%
  3. Vacaciones otorgadas de acuerdo a ley, partiendo de 12 días hábiles durante el primer año e incrementando progresivamente por cada año cumplido.
  4. Días libres, asignación de 08 días libres Tienda Pago durante el primer año y luego se reajusta proporcionalmente a las vacaciones de acuerdo a la política dias libres Tienda Pago.
  5. Día libre por tu cumpleaños a elección (mismo día que cumples años o cualquier día del mes que estás de cumpleaños).
  6. Días festivos no oficiales.
  7. Seguro de Gastos Médicos Mayores.
  8. Dentegra (Beneficio Adicional del Seguro de Gastos Médicos Mayores).
  9. Seguro de Vida.
  10. Si te gusta constantemente seguir aprendiendo y perfeccionando tus conocimientos, tenemos una plataforma padrísima llamada Ubits😏.

¡Conversemos y entérate de los otros beneficios!🥳

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Tienda Pago pays or copays health insurance for employees.
Computer provided Tienda Pago provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Tienda Pago gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
Java Python SQL NoSQL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Engineer Ssr para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

© getonbrd.com.

Job functions

Estamos en búsqueda de un/a Data Engineer con experiencia y proactividad para sumarse a nuestro equipo en modalidad híbrida desde Santiago de Chile. Buscamos una persona con conocimientos sólidos en procesos de datos, cloud computing (especialmente GCP), y procesamiento distribuido.

Responsabilidades Principales

  • Diseñar y construir pipelines de datos robustos para procesos de ingesta, transformación y carga (ETL/ELT).
  • Aplicar buenas prácticas en el manejo de datos: seguridad, gobernanza y cumplimiento.
  • Trabajar con sistemas de procesamiento distribuido para manejar grandes volúmenes de datos.
  • Colaborar con equipos interdisciplinarios para impulsar decisiones basadas en datos.
  • Implementar soluciones escalables y eficientes utilizando herramientas de Google Cloud Platform (GCP).

Qualifications and requirements

  • Experiencia en creación de pipelines de datos y procesos de ETL.
  • Conocimientos sólidos en buenas prácticas de manejo de datos (seguridad, gobernanza, escalabilidad).
  • Experiencia en procesamiento distribuido.
  • Dominio de Python (Java es deseable).
  • Conocimientos en bases de datos SQL y NoSQL, especialmente MongoDB y BigQuery.

Experiencia con herramientas de GCP

  • Pub/Sub
  • Dataflow
  • Dataproc
  • Dataprep
  • Cloud Functions
  • BigQuery
  • Composer
  • Cloud Storage

Desirable skills

Experiencia en arquitectura de datos o entornos DevOps aplicados a datos.

Familiaridad con prácticas de CI/CD en flujos de datos.

POSTULAR VÍA WEB Ver trabajo
Gross salary $5000 - 7000 Tiempo completo
Senior Cdp Manager / Operator
  • Zaelot
Python Analytics SQL Data governance

Zaelot is a fast-growing technology company specialized in building scalable solutions for enterprise clients worldwide. With a team of over 90 professionals spread across 9 countries, Zaelot cultivates a culture based on trust, reliability, and collaboration to deliver innovative and effective technology products. The project focus for this role is managing Customer Data Platforms (CDPs), which are critical for enabling clients to unify, govern, and leverage their customer data efficiently. Our CDP team works closely with product, engineering, and analytics stakeholders to ensure data quality and operational excellence, driving better business outcomes through optimized customer data flows and identity resolution.

Exclusive to Get on Board.

Key Responsibilities

  • Lead the end-to-end configuration, deployment, and ongoing management of Customer Data Platforms such as Segment, Hightouch, Rudderstack, or similar tools across diverse client environments.
  • Own the creation and maintenance of tracking plans, enforce data schemas strictly, and manage customer identity resolution and audience trait development to deliver accurate and actionable customer insights.
  • Design, build, and optimize reverse ETL (Extract, Transform, Load) pipelines and destination syncs to ensure seamless data movement between CDPs and downstream systems.
  • Implement and maintain best practices around naming conventions, user roles administration, permissions, and rigorous data quality assurance (QA) processes to uphold platform integrity.
  • Provide operational enablement through detailed documentation, training, and support aimed at both internal teams and client users to maximize platform adoption and efficiency.
  • Continuously monitor platform health metrics, proactively identifying and resolving operational issues in collaboration with engineering and support teams.

Role Requirements

We are seeking an experienced Senior CDP Manager with a strong technical background and hands-on expertise in managing customer data platforms. The ideal candidate will have between 3 and 5 years of practical experience working with CDP tools such as Segment, Hightouch, Rudderstack, or equivalents, exhibiting deep knowledge of data flows, identity resolution, and audience management techniques.

The role demands a strong understanding of event-based data architecture and familiarity with product analytics platforms like Amplitude or Mixpanel to ensure effective integration and utilization of data insights. Attention to detail is critical, especially regarding documentation accuracy, configuration hygiene, and enforcing data governance standards.

This position requires excellent communication skills to effectively collaborate with both technical and non-technical stakeholders, facilitating clear understanding and alignment on CDP-related initiatives and operational support.

Preferred Qualifications

It is advantageous to have experience in marketing technology stacks beyond CDPs, such as advanced analytics, campaign management platforms, or CRM tools. Familiarity with scripting or programming languages (e.g., SQL, Python) to build custom data pipelines or automate workflows is desirable. Prior exposure to enterprise data governance policies or compliance regulations will add value to the role.

Strong problem-solving abilities, proactive mindset, and a drive for continuous learning in the rapidly evolving CDP and data ecosystem are highly appreciated.

What We Offer

  • 20 days of paid vacation after one year to support a healthy work-life balance.
  • Incentive programs including referral bonuses and finder's fees for successful candidate recommendations.
  • Robust continuous learning opportunities with training and certification programs.
  • Work-from-home support to ensure a comfortable and productive environment.
  • English language classes and fitness programs promoting professional and personal growth.
  • Profit sharing and coaching sessions fostering collective success and development.

At Zaelot, we foster a supportive and innovative culture where your skills and ambitions are valued. Join our diverse team dedicated to excellence and continuous improvement, and contribute to impactful enterprise solutions.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $6500 - 7500 Tiempo completo
Data Engineer / Data Architect
  • Zaelot
Python SQL Web server Big Data
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

Apply from getonbrd.com.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2800 Tiempo completo
Data Ops
  • coderslab.io
  • Santiago (Hybrid)
Python SQL DevOps Big Data

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Ops para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Job opportunity on getonbrd.com.

Funciones del cargo

• Definir, construir y mantener de forma automatizada nuestras bases de datos relacionales y NO relacionales en los distintos ambientes cloud (Público y Privado).
• Colaborar en la construcción y el soporte de nuestra plataforma cloud y sus servicios.
• Colaborar con los equipos de producto identificando restricciones y requerimientos, definiendo arquitecturas de solución y aprovisionando las capacidades de la plataforma que permitan cumplir los atributos de calidad de los productos.
• Participar activamente en espacios de colaboración, mentoreando personas y equipos, e identificando oportunidades de mejora.

Requerimientos del cargo

Conocimientos lenguaje Python
Tener conocimientos de la nube GCP intermedio/avanzado y su gama de productos para serverless y contenedores (Cloud Run, Cloud Scheduler, etc)
Poseer experiencia en Bigquery (SQL)
Gitlab CI
Terraform intermedio/avanzado (generar nuevos módulos, debug de state, etc)
Manejo en GKE nivel administración
Nivel básico/intermedio en Unix (consola)
Deseable:
Estar instruido en IAM de GCP (herencia de IAM, impersonalización, principio de mínimos permisos, etc)
Conocimientos de networking tanto “on-premise” y en la nube GCP
Haber trabajado con K8S “on-premise” y tener nivel intermedio de conocimiento a nivel administración y mantención de nodos
Conocimientos en ArgoCD y Airflow/Composer
Compromiso con las responsabilidades
Manejo de herramientas de IA (Copilot, Gemini, Cursor, etc)
Conocimientos en arquitectura hexagonal y testing con Python
Estar familiarizado con el ciclo de vida DevOps

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1700 Tiempo completo
Analista de Datos BI
  • S3 Chile
  • Santiago (Hybrid)
Python Analytics MySQL PostgreSQL
S3 Chile es una empresa líder en la entrega de servicios de outsourcing especializada en procesos de negocio. Nuestro enfoque está en brindar soluciones integrales que permiten a nuestros clientes optimizar sus operaciones a través de la gestión eficiente de datos y análisis avanzado. El equipo de análisis de datos juega un rol fundamental, colaborando con diversas áreas como marketing, ventas y negocios para impulsar estrategias basadas en inteligencia analítica. Nuestra misión es ofrecer un entorno de aprendizaje continuo y profesionalización en consonancia con las últimas tendencias tecnológicas, fomentando el crecimiento tanto del equipo como de la organización. Ser parte de S3 Chile significa contribuir directamente al éxito de grandes clientes mediante innovación y manejo experto de datos.

Exclusive offer from getonbrd.com.

Responsabilidades principales

  • Análisis de datos: Recopilar, limpiar y analizar grandes volúmenes de datos provenientes de diversas fuentes para identificar tendencias, patrones y oportunidades de mejora.
  • Desarrollo de modelos predictivos y estadísticos: Diseñar y construir modelos estadísticos y algoritmos para predecir resultados, evaluar riesgos y optimizar procesos empresariales.
  • Visualización de datos: Crear visualizaciones claras e impactantes mediante herramientas como Tableau y Power BI para comunicar hallazgos de manera efectiva a las partes interesadas.
  • Elaboración de informes y presentaciones: Preparar reportes detallados y presentaciones ejecutivas que resuman insights clave y recomendaciones prácticas para equipos ejecutivos y operativos.
  • Colaboración interdisciplinaria: Trabajar estrechamente con equipos de negocio, marketing, ventas y tecnología para definir requerimientos, validar hipótesis y co-crear soluciones basadas en datos.

Habilidades y competencias requeridas

  • Conocimientos en estadística y matemáticas: Dominio de conceptos avanzados como regresión, correlación, análisis de varianza (ANOVA) y otras técnicas estadísticas aplicadas.
  • Programación: Experiencia sólida en lenguajes como Python, R y SQL para manipulación de datos, construcción de modelos y automatización de procesos.
  • Manejo de herramientas analíticas: Capacidad para utilizar herramientas como Excel avanzado, Tableau, Power BI y otras plataformas de visualización y análisis.
  • Bases de datos: Conocimiento práctico en gestión y consultas sobre bases de datos relacionales como MySQL y PostgreSQL.
  • Plataformas de análisis digital: Familiaridad con Google Analytics, Mixpanel y otras herramientas para análisis de comportamiento en entornos digitales.
  • Pensamiento crítico y resolución de problemas: Aptitud para examinar situaciones complejas, identificar causas raíz y generar soluciones innovadoras y eficientes.
  • Comunicación efectiva: Habilidad para explicar conceptos técnicos complejos en un lenguaje claro, adaptado a diferentes audiencias, facilitando la toma de decisiones basadas en datos.
Requisitos académicos y experiencia:
  • Título universitario en Ingeniería Comercial, Ingeniería Civil, Estadística, Matemáticas, Ciencias de la Computación o áreas afines.
  • Experiencia mínima de 2 a 3 años en análisis de datos o roles relacionados, preferiblemente en entornos empresariales.
  • Certificaciones profesionales como Certified Data Analyst (CDA) o Certified Analytics Professional (CAP) serán consideradas un plus significativo.

Habilidades y conocimientos deseables

  • Experiencia en manejo de grandes volúmenes de datos (Big Data) y conocimiento de herramientas o frameworks asociados.
  • Conocimiento en técnicas de machine learning y su aplicación práctica en modelos predictivos.
  • Familiaridad con metodologías ágiles de trabajo y gestión de proyectos.
  • Experiencia previa trabajando en equipos multidisciplinarios y en ambientes dinámicos.
  • Habilidades avanzadas en storytelling con datos para mejorar la comunicación visual y estratégica.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos que incluyen programas de bienestar y capacitaciones continuas.
👥 Un equipo comprometido que promueve un entorno de aprendizaje constante alineado con los nuevos avances tecnológicos.
Entorno colaborativo, flexible y remoto, alineado con las necesidades actuales del mercado laboral en Chile.

Health coverage S3 Chile pays or copays health insurance for employees.
Computer provided S3 Chile provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Management
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence

Banco Santander Chile es una institución financiera líder en el país, reconocida por su enfoque en ayudar a personas y empresas a progresar mediante soluciones innovadoras y personalizadas. El área de banca comercial se dedica a diseñar y ejecutar estrategias comerciales que optimizan la rentabilidad de la cartera de clientes, utilizando tecnología avanzada para la gestión de datos y el desarrollo de herramientas propias que potencian la toma de decisiones y la experiencia del cliente.

Este equipo trabaja en la constante búsqueda y aplicación de nuevas tecnologías para mejorar las acciones comerciales y asegurar que las iniciativas estén disponibles y sean efectivas en los diferentes canales digitales y presenciales del banco.

This job is original from Get on Board.

Responsabilidades principales

Como data management, tus responsabilidades incluirán:

  • Participar en la generación de fuentes de información con los distintos atributos y variables calculadas.
  • Automatizar el despliegue de las acciones comerciales con los distintos actores de canales del banco.
  • Recomendar nuevas tecnologías para mejorar el despliegue y la búsqueda de nuevas acciones de las campañas dentro del equipo de inteligencia comercial.
  • Coordinar y desplegar las ofertas y/o campañas a los distintos canales del banco Santander.
  • Automatizar el despliegue de los Journeys (con Salesforce Marketing Cloud y Adobe Experience Platform - AJO) en base a los distinto eventos de nuestros clientes.

Perfil y experiencia requerida

Buscamos profesionales con experiencia en programación orientada a la gestión comercial en el sector financiero o afines. Se valoran conocimientos sólidos en análisis de datos, manejo de bases de datos y desarrollo de software aplicado a procesos comerciales.

Entre las habilidades técnicas y competencias destacan:

  • Experiencia en lenguajes de programación y explotación de datos, de al menos, 1 año.
  • SQL avanzado
  • Python avanzado en análisis de datos
  • Manejo de Tableau
  • Manejo de Power BI
  • Proactividad en la búsqueda constante de innovación tecnológica aplicable a la función.

Se valoran además habilidades blandas como la adaptación al cambio, resiliencia, y pensamiento crítico orientado a la mejora continua.

Conocimientos y experiencia complementarios

Será un plus contar con experiencia previa en bancos o instituciones financieras y manejo de herramientas como SalesForce Marketing Cloud y AJO de Adobe Experience Platform . Conocimientos en metodologías ágiles para proyectos de desarrollo tecnológico también serán bien valorados.

Habilidades adicionales en visualización de datos, para impulsar la innovación en las acciones comerciales serán una ventaja competitiva.

Beneficios y oportunidades de crecimiento

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1900 - 2500 Tiempo completo
Ingeniero de Datos Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL Big Data
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is exclusive to getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener ingestas de datos hacia Google Cloud Platform.
  • Implementar pipelines ETL eficientes y escalables para procesamiento de datos.
  • Colaborar con equipos técnicos y de negocio para asegurar la calidad y disponibilidad de la información.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando BigQuery, Cloud Functions, Airflow y Cloud Storage.
  • Utilizar DBT para transformación y modelado de datos (ideal).
  • Controlar versiones y colaborar en el desarrollo mediante herramientas como GitLab, Bitbucket o GitHub.
  • Documentar procesos y asegurar buenas prácticas en el manejo de datos.
  • Apoyar en la identificación y resolución de problemas técnicos relacionados con ingesta y procesamiento de datos.

Requerimientos del cargo

  • Conocimientos técnicos obligatorios:
    • Desarrollo de proyectos ETL en Google Cloud Platform (GCP).
    • Uso avanzado de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
    • Experiencia ideal con DBT (Data Build Tool).
    • Dominio de lenguajes SQL y Python.
    • Manejo de gestores de versionamiento: GitLab, Bitbucket o GitHub.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2500 Tiempo completo
Ingeniero de Datos Semi Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL Big Data
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply to this job from Get on Board.

Funciones del cargo

  • Desarrollar y mantener pipelines ETL para ingesta, transformación y carga de datos en GCP.
  • Modelar datos para asegurar la calidad, integridad y optimización en BigQuery.
  • Implementar soluciones usando Cloud Functions, Airflow y Cloud Storage para automatización y orquestación de procesos.
  • Colaborar con equipos multidisciplinarios para cumplir con los objetivos del proyecto Lago de Datos 2.0.
  • Utilizar DBT para la transformación y modelado de datos (cuando aplique).
  • Gestionar versiones y colaborar en el control de código mediante GitLab, Bitbucket o GitHub.
  • Documentar procesos técnicos y mantener buenas prácticas en el manejo de datos.

Requerimientos del cargo

  • Experiencia en desarrollo de proyectos de datos (ETLs) en Google Cloud Platform (GCP).
  • Conocimiento y manejo de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
  • Experiencia ideal con DBT (Data Build Tool).
  • Dominio de lenguajes SQL y Python.
  • Experiencia con gestores de versionamiento como GitLab, Bitbucket o GitHub.
  • Experiencia en modelado de datos en GCP.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply directly on Get on Board.

Funciones del cargo

-Desarrollo de componentes en Python
-Utilización de BigQuery:Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
-Transformación de Datos:Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
-Pruebas de Precisión de Datos:Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
-Seguimiento de Cambios:Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
-Construcción de Modelos de Datos: Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
-Escritura de Código de Transformación: Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
Implementación y Documentación: Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

-Programación
-Python
-SQL: Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.-GCP
-BigQuery : Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos
-Kubernetes
-Docker

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 6 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL BigQuery ETL
En BC Tecnología, somos una consultora TI enfocada en brindar servicios integrales de outsourcing, desarrollo de proyectos y consultoría para clientes de sectores financieros, seguros, retail y gobierno. Nos especializamos en formar equipos ágiles y multidisciplinarios que aportan soluciones tecnológicas de vanguardia. Actualmente, estamos reclutando para un proyecto de 6 meses que involucra el desarrollo de pipelines de datos y arquitecturas en Google Cloud Platform, destinados a optimizar el manejo y análisis de grandes volúmenes de información.

Apply directly at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT en Google Cloud Platform para asegurar el flujo eficiente y confiable de datos.
  • Implementar soluciones utilizando productos como BigQuery, Cloud Functions, Airflow y Cloud Storage que soporten procesos analíticos y de negocio.
  • Optimizar consultas SQL y desarrollar scripts en Python para manipulación y transformación de datos.
  • Gestionar versiones y colaborar dentro del equipo utilizando herramientas de control de código como GitLab, GitHub o Bitbucket.
  • Aplicar buenas prácticas en desarrollo, pruebas y documentación técnica.
  • Colaborar en un entorno ágil, trabajando de forma híbrida entre la oficina en Santiago Centro y remoto.

Requisitos y experiencia

Buscamos un profesional con al menos tres años de experiencia demostrable en desarrollo de proyectos de gestión y procesamiento de datos en Google Cloud Platform. Es indispensable tener conocimientos sólidos en SQL y Python para la manipulación y transformación de datos en entornos analíticos. Además, se requiere experiencia práctica con productos clave de GCP, incluyendo BigQuery para almacenamiento y consultas masivas, Cloud Functions para ejecución de funciones serverless, Airflow para orquestación de flujos de trabajo y Cloud Storage para almacenamiento escalable.
El candidato debe estar familiarizado con herramientas de control de versiones como GitLab, GitHub o Bitbucket, que facilitan el trabajo colaborativo y la gestión de código. La capacidad para adaptarse a un modelo híbrido de trabajo, combinando presencialidad en Santiago Centro con trabajo remoto, es fundamental.
Se valoran cualidades como la proactividad, el enfoque orientado al detalle, habilidades comunicativas para trabajo en equipo y la capacidad para afrontar desafíos técnicos en proyectos dinámicos y exigentes.

Conocimientos adicionales deseables

Se considerará un plus la experiencia trabajando con DBT (Data Build Tool), que facilita el desarrollo y mantenimiento de modelos de datos dentro de pipelines modernos. Contar con certificaciones en plataformas cloud, especialmente en Google Cloud Platform, y experiencia previa en proyectos relacionados con áreas financieras o retail, será valorado positivamente.
El manejo de metodologías ágiles y experiencia en la documentación y automatización de procesos ETL fortalecerán el perfil, ya que colaboramos con equipos multidisciplinarios en entornos colaborativos e innovadores.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio entre vida laboral y personal.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Virtualization Amazon Web Services
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

Applications at getonbrd.com.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en Modelos Analíticos Avanzados
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data Azure
En BC Tecnología, somos una consultora de servicios IT con más de 6 años de experiencia diseñando y desarrollando soluciones tecnológicas acorde a las necesidades de nuestros clientes. Nuestra oferta abarca desde la consultoría y diseño de soluciones, pasando por la formación de equipos y outsourcing de personal, hasta el desarrollo y soporte de proyectos en diversas industrias como servicios financieros, seguros, retail y gobierno. Nos especializamos en crear equipos ágiles, adaptados para trabajar en áreas de infraestructura tecnológica y desarrollo de software, brindando productos y servicios que apoyan la evolución digital de nuestros clientes.

Job opportunity on getonbrd.com.

Responsabilidades principales

  • Participar activamente en todas las etapas del ciclo de vida del análisis de datos, incluyendo la identificación, estructuración y preparación de datos relevantes para el proyecto.
  • Diseñar, desarrollar e implementar modelos analíticos avanzados, empleando técnicas de estadística clásica y aprendizaje automático para extraer insights clave.
  • Construir visualizaciones de datos efectivas para monitorear periódicamente los indicadores clave de desempeño (KPIs) y facilitar la comprensión de los resultados.
  • Comunicar claramente los hallazgos y resultados analíticos a las áreas de negocio para apoyar la toma de decisiones estratégicas.
  • Llevar a cabo el mantenimiento evolutivo y la optimización continua de los modelos analíticos desplegados, asegurando su calidad, escalabilidad y rendimiento en producción.
  • Colaborar estrechamente con los equipos de ingeniería para garantizar el correcto despliegue y funcionamiento de los modelos en ambientes productivos.
  • Desarrollar e implementar APIs para facilitar el acceso y consumo de los modelos analíticos por otras aplicaciones y servicios internos.
  • Aplicar un enfoque crítico y orientado al negocio para resolver problemas complejos y aportar soluciones efectivas basadas en datos.

Perfil requerido

Buscamos un profesional con título en Ingeniería, Economía, Estadística o carreras afines, con sólida capacidad analítica tanto cuantitativa como cualitativa. Es fundamental poseer experiencia comprobada en el diseño, desarrollo y despliegue de modelos analíticos avanzados, trabajando en conjunto con equipos técnicos en ambientes productivos.
El candidato debe contar con conocimientos avanzados en estadística aplicada, aprendizaje automático, y metodologías analíticas modernas. Además, se requiere un dominio fuerte de SQL para manipulación y consulta de bases de datos, así como programación en Python y PySpark para procesamiento de datos a gran escala.
Es muy valorada la experiencia trabajando con plataformas Azure y Databricks para la gestión y explotación de big data. También es importante la experiencia en el desarrollo y consumo de APIs para integración de modelos y aplicaciones.
Buscamos un profesional comprometido, rigoroso, con actitud crítica y capacidad para presentar resultados de forma clara, orientado a resolver problemas desde una perspectiva de negocio e impacto.

Requisitos deseables

Serán considerados plus aquellos candidatos con experiencia adicional en técnicas de deep learning, manejo de otras herramientas de visualización de datos avanzadas, conocimientos en arquitecturas de microservicios y habilidades en automatización de pipelines analíticos.
Además, se valorará la experiencia en trabajo en equipos multidisciplinarios bajo metodologías ágiles, buen manejo de comunicación efectiva, y disposición para aprendizaje continuo en nuevas tecnologías emergentes.

Beneficios y cultura empresarial

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Relocation offered If you are moving in from another country, BC Tecnología helps you with your relocation.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2300 - 2500 Tiempo completo
Data Reporting Engineer
  • Contac Ingenieros
  • Santiago (Hybrid)
Python Data Analysis SQL Azure

En Contac buscamos aportar y potenciar los equipos especializados de nuestros clientes, agregando valor a sus procesos a través de la experiencia de nuestros profesionales.
El equipo de trabajo está orientado a desarrollar, implementar y mantener sistemas avanzados de reportes y visualización de datos, con la finalidad de mejorar la gestión empresarial.

Apply without intermediaries from Get on Board.

Principales Desafíos

En esta posición, serás el protagonista en la transformación de datos en conocimiento relevante para la toma de decisiones estratégicas dentro de la minería.

  • Diseñar, desarrollar y optimizar reportes y herramientas de visualización que faciliten el acceso y análisis de la información, asegurando que sea clara y estratégica para los diferentes niveles de la organización.
  • Construir, mantener y mejorar las plataformas de datos que alimentan las soluciones de reportabilidad, garantizando la integridad y actualización continua de la información.
  • Integrar y gestionar procesos ETL (Extract, Transform, Load) para asegurar que la información sea confiable, oportuna y eficiente, soportando la toma de decisiones diarias.

Conocimientos Claves y Requisitos

Buscamos profesionales con un perfil técnico avanzado que combine conocimientos en ingeniería con habilidades sólidas en análisis y visualización de datos dentro del sector minero.

  • Python avanzado, con experiencia práctica utilizando librerías especializadas como Pandas, NumPy, Matplotlib, Plotly y Dash para manipulación, análisis y creación de visualizaciones dinámicas.
  • SQL avanzado y competencia en manejo y optimización de bases de datos complejas.
  • Power BI avanzado, capaz de construir dashboards impactantes que faciliten la interpretación y comunicación de datos a niveles estratégicos.
  • Experiencia en gestión de ETL y modelamiento de datos, con familiaridad en el ecosistema Azure para administrar y optimizar plataformas de datos en la nube.
  • Título profesional en Ingeniería Civil o Industrial, preferentemente con especialidad en Metalurgia, Química o Minería, aportando una visión práctica de los procesos productivos y operativos mineros.
  • Conocimiento sólido de los procesos mineros y manejo de indicadores clave del negocio para convertir datos en información relevante y accionable.
  • Mínimo 2 años de experiencia específica en reportabilidad y análisis de datos, preferentemente en el sector minero o industrias relacionadas.
  • Inglés Intermedio (B2)
  • Capacidad para trabajar en equipo, pensamiento analítico, atención al detalle, y orientación a resultados con compromiso en entregar soluciones de calidad que agregan valor.

Competencias y Habilidades Deseables

Es valorado contar con habilidades complementarias que potencien el impacto del rol, tales como:

  • Experiencia previa en industrias de minería o sectores industriales similares, aportando contexto y comprensión profunda de los requerimientos del negocio.
  • Conocimientos en otras herramientas de visualización o BI adicionales a Power BI, como Tableau o QlikView.
  • Familiaridad con metodologías ágiles para gestión de proyectos y desarrollo de soluciones analíticas.
  • Capacidad para comunicar hallazgos técnicos a audiencias no técnicas, facilitando la adopción de soluciones basadas en datos.
  • Interés por la innovación tecnológica y aprendizaje continuo en el ámbito de ciencia de datos y análisis avanzado.

Que ofrecemos

  • Una carrera en tecnología y analítica avanzada, con oportunidades de crecimiento y especialización.
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Ingeniero/a de Datos / AI
  • Devups
Python Agile MySQL PostgreSQL
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Apply directly on the original site at Get on Board.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2100 Tiempo completo
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

© getonbrd.com.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer with Snowflake Expertise
  • Moventi
Python Agile SQL Business Intelligence
At Moventi, we focus on helping organizations lead with innovation through technology. Our team consists of a multidisciplinary group of talents working together to adopt new technologies, methodologies, and collaborative work styles that enhance professional growth and project impact. The office is centrally located, equipped with parking, recreational areas for break times, and agile meeting spaces to foster teamwork across different professional profiles. Our organizational culture emphasizes transparency, strong coordination, commitment, willingness to take risks, and daily innovation with original ideas that generate positive impact.

Apply without intermediaries from Get on Board.

Job Responsibilities and Core Functions

We are looking for a Data Engineer skilled in Snowflake, Airflow, Python, SQL, and Tableau who will play a key role in designing, developing, and maintaining efficient data pipelines and workflows. The primary goal is to enable reliable data processing and visualization to support business intelligence efforts.
  • Design, implement, and optimize data pipelines using Airflow and Python for automated and scalable data processing.
  • Develop and maintain Snowflake data warehouses ensuring data integrity, performance, and security.
  • Create SQL queries and scripts for data preparation, transformation, and loading processes.
  • Build and maintain interactive, insightful dashboards and reports in Tableau to provide actionable insights to stakeholders.
  • Collaborate cross-functionally with data analysts, business users, and other engineering teams to understand data needs and translate them into technical solutions.
  • Troubleshoot, monitor, and optimize existing data workflows and dashboards to improve performance and reliability.

Required Skills and Experience

The ideal candidate will have proven hands-on experience working in data engineering roles, particularly with Snowflake as the data warehousing solution. Strong proficiency in Python and Airflow is essential for orchestrating data workflows. Advanced SQL skills are critical for querying and managing complex datasets. Experience in building Tableau dashboards to enable data visualization and reporting is necessary to communicate insights effectively.
Beyond technical expertise, candidates should be proactive, detail-oriented, and have strong problem-solving capabilities. Excellent communication skills and the ability to work collaboratively in a team environment are vital to succeed in this role. We value professionals who embrace transparency and are committed to innovation and continuous learning.

Desirable Skills and Traits

Experience with cloud environments and other data orchestration tools will be advantageous. Familiarity with additional BI tools or programming languages can enhance your profile. Prior experience in agile methodologies and working in multidisciplinary teams will help you excel and adapt quickly within Moventi’s culture.

Benefits and Work Environment

We are dedicated to the professional development of our team members by offering challenging projects and continuous learning opportunities. From your first day, you will have formal employment as a contractor and can enjoy a birthday free day to celebrate your special moment.
  • Opportunities for ongoing professional growth and learning
  • Formal employment contract starting day one as a contractor
  • Birthday free day to celebrate you
  • Engagement in challenging and impactful projects

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2500 Tiempo completo
Data Engineer Semisenior / Senior
  • Lisit
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software enfocados en proporcionar herramientas de automatización y optimización que impulsan la eficiencia operativa de sus clientes. Trabajamos con un enfoque constante en la innovación y la pasión por superar desafíos tecnológicos. Nuestra propuesta diferencial radica en un acompañamiento consultivo integral, utilizando diversas herramientas y prácticas tecnológicas que permiten a los clientes alcanzar con éxito sus objetivos de transformación digital.

Opportunity published on Get on Board.

Responsabilidades y Objetivos del Puesto

Como Data Engineer en Lisit, serás responsable de diseñar, construir y mantener pipelines de datos robustos que faciliten la integración entre múltiples sistemas, asegurando un modelado de datos eficiente y alineado con los requerimientos del negocio. Te encargarás de implementar soluciones escalables utilizando herramientas de Infraestructura como Código (IaC) y gestionar el versionamiento del código para garantizar calidad y trazabilidad.

Participarás activamente en la implementación y optimización de soluciones cloud sobre plataformas como Google Cloud Platform (GCP) y Azure, utilizando productos específicos como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions. La elaboración y mantenimiento de procesos ETL/ELT serán clave para asegurar el flujo y la calidad de los datos.

Trabajarás colaborativamente con equipos multidisciplinarios, manteniendo una comunicación fluida y contribuyendo a la innovación continua en los proyectos, siempre con foco en la entrega de valor y el cumplimiento de los objetivos tecnológicos y de negocio.

Requisitos y Habilidades Exigidas

  • Mínimo 3 años de experiencia profesional en manejo y procesamiento de datos, enfocándose en la generación de pipelines, integración de sistemas y modelado de datos.
  • Dominio intermedio a avanzado en lenguajes de programación como Python y Spark, con capacidad para desarrollar y optimizar scripts y procesos complejos.
  • Sólidos conocimientos intermedios a avanzados en Infraestructura como Código (IaC), especialmente usando Terraform.
  • Amplia experiencia con sistemas de versionamiento de código, preferentemente GitHub y GitLab, garantizando buenas prácticas de control y colaboración.
  • Conocimiento avanzado en SQL y bases de datos relacionales y no relacionales, capaces de diseñar consultas complejas y optimizar el rendimiento.
  • Familiaridad intermedia a avanzada con plataformas cloud como Google Cloud Platform y Microsoft Azure, así como con herramientas específicas como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions.
  • Experiencia avanzada con herramientas ETL/ELT, destacándose el uso de Azure Data Factory, siendo este un requisito excluyente.
  • DESEABLE: Certificaciones relevantes en Data Engineering valoradas positivamente, incluyendo Microsoft Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader y Google Cloud Associate Cloud Engineer.
  • DESEABLE: Conocimientos deseables en Microsoft Power BI y Microsoft Fabric para complementar la visualización y análisis de datos.

Además, buscamos profesionales con capacidad analítica, buenas habilidades comunicativas, actitud proactiva y capacidad para trabajar en equipo, orientados a la mejora continua y la entrega eficiente y efectiva de soluciones.

Conocimientos y Certificaciones Deseables

Valoraremos positivamente candidatos que posean certificaciones oficiales en ingeniería de datos como Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader, o Google Cloud Associate Cloud Engineer que demuestren compromiso con la actualización continua. También será un plus contar con conocimientos en Microsoft Power BI y Microsoft Fabric, herramientas que aportan valor agregado para el manejo y visualización avanzada de datos, y que complementan el enfoque técnico del puesto.

Beneficios y Ambiente Laboral

Ofrecemos la oportunidad de integrarte a proyectos tecnológicos desafiantes y de largo plazo, trabajando dentro de un equipo técnico altamente colaborativo que promueve un ambiente profesional y amigable. Nuestro entorno está pensado para facilitar la comunicación constante y el compromiso del equipo, con un estilo de trabajo 100% remoto que favorece la conciliación entre la vida personal y profesional.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Lisit provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer GCP
  • Factor IT
Python Data Analysis SQL NoSQL

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Apply without intermediaries from Get on Board.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo