No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

$$$ Tiempo completo
Ingeniero Senior en Automatización de Pruebas
  • CoyanServices
JavaScript Java Python Agile
CoyanServices busca un Ingeniero Senior en Automatización de Pruebas para trabajar 100% remoto en modalidad freelance. El proyecto se enmarca dentro de una iniciativa regional de QA Automation que abarca la automatización de pruebas para UI, backend y APIs, con un foco en garantizar la calidad y la trazabilidad de soluciones digitales a lo largo de pipelines CI/CD. El equipo es distribuido regionalmente y colabora con áreas de negocio en varios países de Latinoamérica. El profesional será referente técnico en QA Automation, promoviendo prácticas DevOps, integración de pruebas en despliegues y mejora continua, con interacción constante entre IT y negocio. El rol implicará liderar, diseñar y mantener estrategias de automatización, definir criterios de aceptación de pruebas y asegurar que el producto cumpla con los requerimientos funcionales y las reglas de negocio definidas.

Exclusive to Get on Board.

Objetivos del rol:

  • Diseñar, implementar y mantener automatización de pruebas end-to-end (UI, backend y APIs) dentro de pipelines CI/CD.
  • Asegurar la calidad, trazabilidad y cobertura de las soluciones digitales de la compañía.
  • Ser referente técnico en QA Automation, promoviendo la adopción de prácticas DevOps y cultura de mejora continua.
  • Colaborar con equipos distribuidos regionalmente para garantizar la calidad en todas las etapas del desarrollo.

Perfil y habilidades requeridas:

Requisitos técnicos:
  • Experiencia ≥5 años en QA Automation con enfoque en UI, backend y APIs.
  • Lenguajes y frameworks: Python, Node.js, TypeScript, Java; Jest, Pytest, unittest, JUnit/TestNG.
  • UI Testing: Cypress, Playwright, React Testing Library, Jest, Jasmine o Karma (al menos dos).
  • API Testing: Postman/Newman, Karate DSL, REST Assured.
  • Gestión de pruebas de rendimiento (deseable): Artillery, JMeter o k6.
  • Infraestructura y CI/CD: GitHub Actions, Docker, LocalStack (opcional), Terraform, CloudFormation, SAM.
  • Cloud: AWS (obligatorio).
  • Gestión y calidad: Jira, Confluence, Xray/Zephyr, SonarQube.
  • Métodos: Agile/Scrum y DevOps.
Habilidades blandas:
  • Capacidad de análisis y pensamiento crítico.
  • Liderazgo técnico y mentoring.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Compromiso con la mejora continua y la calidad.

Habilidades blandas:

Habilidades blandas:
  • Capacidad de análisis
  • Liderazgo técnico y mentoría.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Orientación a la mejora continua y cultura de calidad.

Beneficios y cultura

Objetivos del rol:
Beneficios y cultura de CoyanServices (basado en el formato proporcionado y adaptado al contexto remoto):
  • Modalidad freelance 100% remoto, con flexibilidad horaria y posibilidad de colaborar con equipos de distintos países.
  • Participación en proyectos regionales con enfoque en QA Automation de alto impacto.
  • Acceso a herramientas de prueba modernas, pipelines CI/CD y entornos reproducibles con Docker y LocalStack.
  • Ambiente de trabajo colaborativo, con énfasis en mejora continua, DevOps y buenas prácticas de calidad.
  • Oportunidad de crecimiento técnico y mentoría para otros ingenieros del equipo.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Analista de Aseguramiento de Calidad de Software
  • Usercode SpA
JavaScript Excel SQL NoSQL
Usercode SpA es una empresa tecnológica 100% remota, especializada en desarrollo de software a medida para instituciones públicas y privadas. Nuestro foco está en tecnologías Cloud, automatización y digitalización de procesos. Contamos con un equipo distribuido entre Chile, México y Perú y trabajamos con herramientas de colaboración como Slack, Meet/Hangouts y Monday. Nuestro objetivo es entregar productos de clase mundial para clientes diversos, con un enfoque en calidad, innovación y crecimiento profesional de nuestro equipo.

This job offer is on Get on Board.

Funciones del cargo

Como Analista de Aseguramiento de Calidad de Software, trabajarás en el aseguramiento de la calidad de software para nuestros desarrollos de software a medida. Además, trabajarás en estrecha colaboración con el equipo de desarrollo de software junto con los demás desarrolladores, arquitecto de software y jefe de proyecto. Los proyectos desarrollados son mayoritariamente plataformas web.
El cargo reporta directamente al jefe de proyecto de Usercode, todas las mañanas se realiza una daily para conversar sobre avances y posibles bloqueos del día anterior. Durante el día, todo el equipo trabaja en sus actividades planificadas pudiendo conectarse a una videollamada con todo o parte del equipo de desarrollo para reuniones de trabajo y/o aclarar dudas.
Responsabilidades:
  • Entender los requisitos del negocio: leer requerimientos y participar en reuniones de levantamiento de requisitos con clientes.
  • Desarrollar planes y casos de prueba; generar datos de prueba y ejecutar pruebas manuales conforme al plan.
  • Detectar defectos, documentar, reportar y gestionar incidencias, colaborando con el equipo de desarrollo para su resolución.
  • Generar informes de prueba (avance y cierre).
  • Automatización de pruebas: diseñar, desarrollar y mantener scripts de prueba; participar en la creación y ejecución de pruebas automatizadas.

Descripción

Buscamos un/a Analista de Aseguramiento de Calidad de Software con al menos 5 años de experiencia para un rol 100% remoto. Reportarás directamente al jefe de proyecto y colaborarás estrechamente con desarrolladores, arquitecto de software y otros stakeholders. Realizarás pruebas funcionales y no funcionales en plataformas web, contribuyendo a asegurar la calidad y la confiabilidad de los productos entregados a clientes. Participarás en reuniones de levantamiento de requerimientos y estarás involucrado en todo el ciclo de pruebas, desde la planificación hasta la entrega de informes y métricas de calidad.

Requerimientos del cargo
Experiencia excluyente:
  • Estudios relacionados al Desarrollo de Software y Aseguramiento de Calidad de Software.
  • Al menos 5 años de experiencia en Aseguramiento de Calidad de Software.
  • Capacidad de análisis y comprensión de requerimientos y procesos de negocios.
  • Tener disponibilidad para trabajar full time.
¿Qué tienes que saber excluyentemente a nivel técnico?
Conocimientos en sistemas de gestión de la calidad y normas de calidad.
Manejo de herramientas básicas de software (Excel).
Conocimiento básico en lenguajes de programación Javascript, SQL y NoSQL.
Lo que buscamos en ti:
  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Beneficios

Ofrecemos un entorno de trabajo 100% remoto, brindando flexibilidad para adaptarse a necesidades presenciales puntuales de clientes. Disfrutarás de días extras de vacaciones y una modalidad laboral 3x5 que otorga días libres adicionales, además de un día libre especial por cumpleaños, cambio de domicilio o fallecimiento de mascota. Proporcionamos pagos para certificaciones seleccionadas para potenciar tu desarrollo profesional. Promovemos pausas activas colaborativas para el bienestar del equipo y entregamos aguinaldos como parte de nuestros beneficios. Todo esto enmarcado en una cultura que fomenta el crecimiento y la calidad de vida laboral.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
Vacation over legal Usercode SpA gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1800 - 2500 Tiempo completo
DevOps Senior Freelance
  • CoyanServices
JavaScript Python Redis Node.js

Coyan Services es una empresa latinoamericana especializada en soluciones de staffing tecnológico y consultoría de talento IT. Operamos en diferentes países de LATAM conectando profesionales altamente calificados con proyectos de innovación en empresas multinacionales.
Nuestra visión es ser un puente entre el mejor talento de la región y las organizaciones que están transformando el futuro con tecnología, impulsando equipos diversos, remotos y con cultura de colaboración.

Una empresa tecnológica privada busca incorporar un/a DevOps para trabajar en un proyecto estratégico con uno de sus clientes en la región. La posición es 100% remota, en modalidad freelancer, y está abierta a profesionales de cualquier país de Latinoamérica.

Apply directly through getonbrd.com.

Objetivos y Responsabilidades

Objetivos del rol:

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD).
  • Integrar prácticas DevOps en el ciclo de vida del desarrollo de software en conjunto con los equipos de desarrollo.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Garantizar la disponibilidad, seguridad y rendimiento de los sistemas en la nube.

Responsabilidades:

  • Diseñar, implementar y mantener pipelines CI/CD.
  • Colaborar con equipos de desarrollo en la adopción de prácticas DevOps.
  • Automatizar infraestructura y despliegues con IaC.
  • Administrar y mantener la infraestructura en AWS y servidores.
  • Monitorear y mejorar disponibilidad, rendimiento y seguridad.

Requisitos Técnicos

  • Experiencia sólida (3+ años) administrando servicios en AWS (Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, S3, EC2, ECS, Secret Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions).
  • Experiencia en infraestructura como código (Terraform y CloudFormation – excluyentes).
  • Experiencia en despliegue de aplicaciones móviles offline.
  • Uso de GitHub (gestión de código fuente) y GitHub Actions (automatización de despliegues).
  • Experiencia en análisis de código estático con SonarCloud.
  • Desarrollo en Python y Node.js con enfoque operacional.
  • Conocimientos en SQL, bases de datos transaccionales, NoSQL y bases embebidas.

Habilidades blandas

  • Trabajo en equipo y colaboración.
  • Autogestión y proactividad.
  • Comunicación efectiva.

Conditions

  • Freelancer

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Lead QA Engineer
  • Niuro
QA QA Engineer Security Software
Niuro connects projects with elite tech teams and partners with leading U.S. companies. As a global provider of autonomous, high-performance teams, Niuro focuses on delivering innovative solutions while handling all administrative tasks (hiring, payments, training) so engineers can concentrate on impact. Our engineers work on technically rigorous industrial data projects, driving innovation and professional growth. This role sits within a scalable QA function that supports fintech and lending platforms, enabling teams to release robust software with high quality and operational reliability. Joining Niuro means being part of a global community dedicated to technical excellence and continuous learning, with strong administrative support and clear opportunities for leadership development and career progression.

Find this job on getonbrd.com.

Responsibilities

  • Lead the design, implementation, and execution of comprehensive test strategies for fintech/lending products, including edge cases, complex scenarios, and happy paths.
  • Develop and maintain robust test automation frameworks and tools (experience with Reflect or similar tools is a plus).
  • Assess and improve test coverage, write clear, maintainable test plans, and ensure tests are repeatable and scalable across multiple releases.
  • Analyze code and functionality to identify blockers, unblock issues, and validate fixes independently.
  • Manage test suites and reporting to ensure transparency, traceability, and ease of maintenance for the broader team.
  • Collaborate with Product and Development teams to define acceptance criteria and ensure quality from design through production.
  • Communicate clearly and autonomously, delivering high-quality results with minimal production impact.
  • Mentor junior QA engineers, foster best practices, and participate in continuous improvement initiatives.

Requirements

  • Proven experience as a Lead QA Engineer or equivalent, with strong test automation and manual testing capabilities.
  • Solid understanding of fintech / lending products, risk controls, and regulatory considerations in software testing.
  • Strong ability to analyze, simplify, and solve complex problems with practical, fast, and reliable solutions.
  • Excellent communication and collaboration skills, with a proactive and autonomous work style.
  • Experience designing and executing end-to-end test plans, including non-functional testing (performance, security, reliability) as applicable.
  • Familiarity with modern QA tooling, CI/CD integration, and test reporting dashboards.
  • Strong problem-solving mindset, attention to detail, and a passion for delivering high-quality software.

Desirable

  • Experience with automated API and UI testing in complex data-driven applications.
  • Knowledge of financial domain risk controls, lending workflows, and regulatory considerations.
  • Prior leadership experience or mentoring responsibilities within QA teams.
  • Experience working in remote, global teams and coordinating across time zones.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Engineer QA
  • TIMINING
Agile Excel SQL QA
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

Apply to this job at getonbrd.com.

Responsabilities and Tasks

Buscamos un QA Engineer con experiencia en aseguramiento de calidad de software para un entorno minero. El candidato ideal debe comprender el negocio, los usuarios y las soluciones tecnológicas desarrolladas para garantizar que las pruebas agreguen valor al producto final.
Principales Funciones:
  • Diseño y ejecución de pruebas: Definir planes de prueba, desarrollar y ejecutar casos de prueba funcionales, de performance y exploratorias para validar el software.
  • Gestión de defectos: Identificar, documentar y gestionar errores, colaborando con el equipo de desarrollo en su resolución y prevención.
  • Participación en el desarrollo ágil: Definir criterios de aceptación, refinar historias de usuario y participar en reuniones de equipo.
  • Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
  • Mejora continua y actualización: Optimizar estrategias de prueba, evangelizar buenas prácticas de QA y mantenerse al día con tendencias del sector.
  • Lineamientos QA: Cumplir con los lineamientos QA de la empresa y aportar su conocimiento para evolucionar los lineamientos en pos de obtener un producto de mejor calidad.

Description

Ingeniero en Computación o Informática o minería
1 a 3 años de experiencia
Tests funcionales, de aceptación, exploratorios, de performance, de regresión.
Frameworks ágiles: pair programing, peer review, TDD, BDD.
SQL
Excel avanzado

Desirable Skills

Scripting básico
Conocimiento de lenguaje C++ / Go
Conocimiento de PowerBI
Ofimatica

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1000 - 1300 Tiempo completo
Analista Funcional QA
  • Gatblac
QA Functional Analyst Software Quality Assurance

Gatblac es una empresa de tecnología con 9 años en el mercado, dedicada al desarrollo de soluciones a medida para importantes clientes de la industria nacional.
Contamos con un equipo de más de 90 profesionales, con amplia experiencia en el mercado bursátil, bancario y maquinarias.

Trabajamos con metodologías apoyadas en principios ágiles, que nos permiten generar desarrollos incrementales, por etapas/sprints, con el compromiso de brindar sistemas de calidad, escalables y extensibles.

© Get on Board.

Descripción del cargo

Buscamos Analista Funcional QA con perfil TI, para desempeñar, para desempeñar diversas tareas relacionadas con el proceso de certificación y aseguramiento de calidad de proyectos de tecnología, desde la perspectiva del negocio.

El/la profesional participará en proyectos de tecnología para importantes clientes de Gatblac en industrias tales como financiera, bursátil, maquinarias y minería.

Funciones principales:

  • Entender los requisitos del negocio.
  • Interactuar con el área de desarrollo para reportar y resolver incidentes.
  • Diseñar y Redactar Casos de Prueba / Escenarios de Prueba / Procedimientos paso a paso para someter a prueba los distintos Escenarios.
  • Identificación y/o generación de datos de prueba.
  • Generación de Informes de Prueba (Avance, ciclo, cierre).

El/la profesional que se integre al equipo será supervisado y mentoreado por su líder técnico asignado y apoyado por el trabajo colaborativo de los desarrolladores e ingenieros de Gatblac.

Requerimientos del cargo

Se requiere un/a profesional de certificación funcional QA con al menos 1 año de experiencia en proyectos de tecnología y los siguientes conocimientos:

Requisitos:

  • Capacidad de análisis y facilidad para la comprensión de requerimientos y procesos de negocio.
  • Capacidad para trabajar en forma autónoma, con baja supervisión.
  • Experiencia en herramientas de Gestión de Calidad.
  • Entender el diseño (Casos de Uso / Especificaciones de Páginas).

Es importante contar con buenos compañeros de trabajo por lo que necesitamos que poseas:

  • Alta capacidad de enfrentar desafíos complejos.
  • Buscamos a alguien con iniciativa, que tenga capacidad de proponer ideas, recibir sugerencias de expertos y ser independiente.
  • Ser un profesional integral que se involucre en las distintas etapas de un proyecto de software y tenga conocimiento de su alcance funcional.
  • Disponibilidad inmediata.

Beneficios

  1. Bonificación de Almuerzo con Carga Mensual Tarjeta Pluxee (Ex-Sodexo).
  2. Afiliación Caja de Compensación Los Héroes.
  3. Afiliación Asociación Chilena de Seguridad ACHS.
  4. Bonificación por trabajo híbrido.
  5. Bonificación fechas especiales: fiestas patrias y fiestas de fin de año.
  6. Acceso continuo a Certificaciones y Cursos.
  7. Tarde libre día de cumpleaños.
  8. Acceso a Seguro Complementario de Salud y Dental con cobertura extendida para hijos/as.
  9. Bonificación por nacimiento de hijos/as y matrimonio de colaboradores.
  10. Bonificación por fallecimiento de padres, cónyuges e hijos/as.
  11. Retroalimentación continua.
  12. Convenios con bancos.

Internal talks Gatblac offers space for internal talks or presentations during working hours.
Life insurance Gatblac pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage Gatblac pays or copays health insurance for employees.
Computer repairs Gatblac covers some computer repair expenses.
Dental insurance Gatblac pays or copays dental insurance for employees.
Computer provided Gatblac provides a computer for your work.
Conference stipend Gatblac covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Databricks Administrator
  • Improving South America
Python SQL Linux Virtualization
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil.

Contribuirás a la construcción y mantenimiento de soluciones de datos que soportan analítica, reporting y la toma de decisiones operativas en toda la organización.

Trabajando de cerca con data engineers y otros perfiles tecnológicos, apoyarás las plataformas que permiten a los equipos transformar datos en insights relevantes.

En este rol, te enfocarás en la gestión de plataformas de datos y en su rendimiento general. Colaborarás con equipos multifuncionales para entender requerimientos de datos, mejorar sistemas existentes y entregar soluciones que respondan a necesidades del negocio.

Esta es una excelente oportunidad para seguir desarrollando tus habilidades en data engineering mientras contribuyes a impulsar decisiones basadas en datos a escala

This job is exclusive to getonbrd.com.

Job functions

  • Monitorear y mantener la salud, disponibilidad y rendimiento de instancias de Snowflake y Databricks, utilizando herramientas nativas y estándares internos
  • Revisar periódicamente métricas de uso, logs del sistema y consumo de recursos para detectar y abordar anomalías
  • Asegurar la ejecución de actualizaciones, parches y respaldos conforme a políticas y estándares definidos
  • Investigar incidentes y degradaciones del servicio, gestionando su resolución o escalamiento para minimizar el impacto en el negocio
  • Administrar el ciclo completo de accesos: provisión, desprovisión y asignación de roles en Snowflake y Databricks, garantizando cumplimiento de estándares de seguridad
  • Implementar y auditar controles de acceso a datos, trabajando junto a equipos de seguridad (InfoSec) y líderes de plataforma
  • Mantener actualizados grupos, permisos y accesos según cambios organizacionales o necesidades de proyectos
  • Actuar como punto principal de contacto para soporte técnico e incidentes relacionados con las plataformas
  • Asesorar a los equipos en buenas prácticas de uso eficiente y seguro de las plataformas (optimización de costos, data sharing, orden de workspaces)
  • Mantener documentación clara y actualizada de la plataforma (onboarding, FAQs, guías de troubleshooting)

Qualifications and requirements

  • Título universitario en Ciencias de la Computación, Sistemas de Información o carrera afín, o experiencia equivalente
  • +2 años de experiencia administrando plataformas Snowflake y Databricks (o al menos una con conocimiento sólido de la otra)
  • Dominio de SQL, scripting (Python o Shell) y ecosistemas de datos en la nube (AWS, Azure o GCP)
  • Conocimiento en herramientas de automatización (Terraform, AWS CloudFormation, Databricks CLI/API, entre otros)
  • Experiencia gestionando usuarios, roles y controles de seguridad en entornos regulados
  • Capacidad para diagnosticar y resolver problemas de plataforma
  • Experiencia con herramientas de monitoreo, logging y alertas
  • Inglés intermedio -avanzado o avanzado (indispensable debido a que se realizan reuniones con equipos internacionales)

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer SSR
  • TCIT
  • Santiago (Hybrid)
Python Big Data BigQuery ETL

En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de experiencia. Trabajamos en proyectos que transforman digitalmente a organizaciones, desde sistemas de gestión agrícola y de remates en línea, hasta soluciones para tribunales y monitoreo de certificaciones para minería. Participamos en iniciativas internacionales, colaborando con partners tecnológicos en Canadá y otros mercados. Nuestro equipo impulsa soluciones de calidad y sostenibles, con foco en impacto social. Buscamos ampliar nuestro equipo con talentos que quieran crecer y dejar huella en proyectos de alto impacto en la nube.

Applications: getonbrd.com.

Funciones principales

  • Responsable de entregar soluciones eficientes, robustas y escalables en GCP. Tu rol implicará:
  • Diseñar, construir y mantener sistemas de procesamiento de datos escalables y de alto rendimiento en GCP.
  • Desarrollar y mantener pipelines de datos para la extracción, transformación y carga (ETL) de datos desde diversas fuentes en GCP.
  • Implementar soluciones para el almacenamiento y procesamiento eficiente de grandes volúmenes de datos utilizando las herramientas y servicios de GCP.
  • Colaborar con equipos multidisciplinarios para entender los requisitos y diseñar soluciones adecuadas en el contexto de GCP.
  • Optimizar el rendimiento de los sistemas de procesamiento de datos y garantizar la integridad de los datos en GCP.

Requisitos y perfil

Buscamos un Data Engineer con dominio en Python y experiencia demostrable trabajando con soluciones en la nube. El/la candidato/a ideal deberá combinar habilidades técnicas con capacidad de comunicación y trabajo en equipo para entregar soluciones de datos de alto rendimiento.

Requisitos técnicos:

  • 1- 4 años de experiencia en Ingeniería de Datos y GCP (Excluyente)
  • Experiencia desarrollando pipelines de datos con Python (pandas, pyarrow, etc.).
  • Experiencia en Google Cloud Platform (GCP) y servicios relacionados con datos (ETL/ELT, Dataflow, Glue, BigQuery, Redshift, Data Lakes, etc.).
  • Experiencia con orquestación de procesos (Airflow, Prefect o similares).
  • Buenas prácticas de seguridad y gobernanza de datos, y capacidad para documentar soluciones.

Habilidades blandas:

  • Comunicación clara y capacidad de trabajar en equipos multifuncionales.
  • Proactividad, orientación a resultados y capacidad de priorizar en entornos dinámicos.
  • Ingenio para solucionar problemas y aprendizaje continuo de nuevas tecnologías.

Deseables

Experiencia con herramientas de gestión de datos en la nube (BigQuery, Snowflake, Redshift, Dataflow, Dataproc).

Conocimientos de seguridad y cumplimiento en entornos de datos, experiencia en proyectos con impacto social o regulaciones sectoriales.

Habilidad para escribir documentación técnica en español e inglés y demostrar capacidad de mentoría a otros compañeros.

Conditions

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3000 Tiempo completo
Data Engineer Senior (AWS)
  • CoyanServices
Virtualization Amazon Web Services Continuous Deployment ETL

CoyanServices es una empresa tecnológica con foco en soluciones cloud y desarrollo de arquitecturas modernas sobre AWS, orientada a construir componentes de datos robustos, escalables y alineados con buenas prácticas de automatización, seguridad y operación. En este contexto, busca un Data Engineer Senior (AWS) para diseñar, implementar y mantener pipelines ETL/ELT serverless y soluciones de ingeniería de datos en la nube, utilizando servicios como AWS Lambda, Amazon S3, Amazon API Gateway, Amazon RDS y AWS CloudFormation. El rol también contempla despliegues automatizados, prácticas de CI/CD e infraestructura como código, colaborando con equipos técnicos y de negocio para traducir requerimientos funcionales en soluciones eficientes y mantenibles. Se trata de una posición bajo modalidad independent contractor, 100% remota, con alcance en Suramérica.

This company only accepts applications on Get on Board.

Objetivos del rol

· Diseñar e implementar pipelines ETL/ELT serverless utilizando AWS Lambda, S3 y RDS para la integración, procesamiento y exposición eficiente de datos.
· Diseñar, desarrollar y mantener soluciones de ingeniería de datos sobre AWS.
· Implementar arquitecturas serverless con altos estándares de seguridad, escalabilidad y eficiencia operativa.
· Implementar componentes de integración, procesamiento y exposición de datos en la nube.
· Colaborar con equipos de arquitectura, desarrollo y negocio para traducir requerimientos funcionales en soluciones técnicas.

Responsabilidades

· Diseñar e implementar pipelines ETL/ELT serverless utilizando AWS Lambda, S3 y RDS para la integración, procesamiento y exposición eficiente de datos.
· Diseñar, desarrollar y mantener pipelines y componentes de datos sobre AWS.
· Implementar procesos utilizando AWS Lambda, Amazon S3, Amazon API Gateway y Amazon RDS.
· Diseñar y mantener infraestructura como código mediante AWS CloudFormation.
· Gestionar despliegues automatizados y pipelines CI/CD con GitHub Actions.
· Asegurar buenas prácticas de versionamiento, testing y despliegue continuo.
· Monitorear, optimizar y resolver incidentes en componentes de datos productivos.
· Implementar controles de seguridad y permisos en AWS.
· Colaborar con equipos multidisciplinarios para garantizar calidad y mantenibilidad de las soluciones.

Requisitos Técnicos

· Experiencia sólida en AWS Lambda, Amazon S3, AWS CloudFormation, Amazon API Gateway y Amazon RDS.
· Experiencia en integración y automatización de despliegues con GitHub Actions hacia AWS.
· Conocimiento en prácticas de CI/CD e infraestructura como código (IaC).
· Conocimiento en seguridad, permisos y buenas prácticas operativas en AWS.
· Experiencia desarrollando e integrando APIs y componentes de datos en la nube.
· Experiencia comprobable trabajando en ambientes AWS productivos.

Experiencia y Formación

· Perfil Senior con al menos 3 años de experiencia en ingeniería de datos o desarrollo cloud.
· Experiencia en diseño, construcción y despliegue de soluciones de ingeniería de datos en AWS.
· Formación en Ingeniería Informática, Ingeniería Civil en Computación o carrera afín.
________________________________________
Certificaciones deseables
· AWS Certified Cloud Practitioner
· AWS Certified Developer – Associate
· AWS Certified Solutions Architect – Associate
· AWS Certified Data Engineer – Associate
________________________________________
Habilidades blandas
· Pensamiento analítico y resolución de problemas.
· Autonomía y proactividad.
· Capacidad de diseño técnico.
· Comunicación efectiva y trabajo colaborativo.
· Orientación a calidad, escalabilidad y mejora continua.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2800 - 3600 Tiempo completo
Business Analyst – Product & Operations
  • BNamericas
Python Data Analysis SQL Business Intelligence

Company & Project Context
BNamericas is a leading Latin American B2B market intelligence platform with 28 years of experience delivering news, project updates, and company data across strategic sectors such as Electric Power, Infrastructure, Mining & Metals, Oil & Gas, and ICT. The Business Analyst will join a Product & Operations team in a subscription-based SaaS environment, helping transform complex data into clear business insights that drive strategic decisions and commercial outcomes.

Apply at getonbrd.com without intermediaries.

Key Responsibilities

  • Monitor and analyze platform usage patterns, engagement trends, and friction points.
  • Design and maintain executive dashboards (Amplitude and other BI tools).
  • Define and track KPIs related to user engagement, retention (GRR, NRR), product adoption, conversion, and customer satisfaction.
  • Translate behavioral data into actionable recommendations to improve adoption, retention, and user experience.
  • Support product discovery by validating hypotheses with real usage data.
  • Evaluate product releases using defined KPIs and performance benchmarks.
  • Develop measurement frameworks for product-market fit and feature impact.
  • Support forecasting of renewals and revenue trends; analyze GRR, NRR, and DRR evolution by ICP.
  • Conduct first-year account performance analyses and provide conversion, lead source, and sales performance insights.
  • Assist Customer Success with client journey analyses and Executive Business Reviews (EBRs).
  • Perform time & motion studies to identify operational efficiencies.
  • Collaborate with development teams to ensure accurate event tracking and instrumentation; design and audit tracking plans.
  • Validate data consistency and quality; maintain governance across cross-functional data flows.
  • Produce QBRs, executive performance presentations, and operational dashboards; present insights to leadership.
  • Transform complex datasets into structured business narratives with recommended actions; contribute to strategic product discussions.

What You'll Do

We are seeking a highly analytical, proactive, and business-oriented Business Analyst to join our Product & Operations team within a B2B subscription-based SaaS environment. This role sits at the intersection of Product, Customer Success, Sales, and Operations, translating complex data into clear business insights that drive strategic decision‑making. You will analyze user behavior, product performance, revenue trends, retention metrics, and operational KPIs to optimize product development, customer experience, and commercial outcomes. The ideal candidate is technically strong in data analysis and an excellent communicator, capable of translating data into compelling narratives for executive and cross-functional audiences in English (Spanish is a plus).

Desired Qualifications

Education in Industrial Engineering, Business, Data Science, Information Systems, Statistics, Applied Mathematics, or related quantitative fields. A Master’s degree or advanced certifications are a plus. 2–4+ years in Business Analytics, Product Analytics, BI, or similar data-focused roles. Experience in a subscription-based B2B SaaS environment and cross-functional collaboration with Product, Commercial, and Operations teams. Strong proficiency in SQL; Python (Pandas), Amplitude (or Mixpanel/GA4), and dashboarding tools (Power BI, Looker, Tableau). Excellent English communication and executive-ready storytelling with data. Spanish is a nice to have. Ability to work in a fast-paced, agile environment with a proactive, ownership-driven mindset.

Benefits

En BNamericas fomentamos un ambiente laboral inclusivo, diverso, creativo y altamente colaborativo. Nuestro equipo es dinámico, comprometido y siempre dispuesto a apoyarse mutuamente, generando un clima agradable y motivador.

Ofrecemos múltiples beneficios, tales como bono por referidos para la incorporación de nuevos talentos recomendados, salidas anticipadas en fechas especiales como fiestas patrias y Navidad, oportunidades de formación continua y desarrollo profesional, y un dress code informal que permite autenticidad y comodidad en el trabajo.

Te invitamos a formar parte de una empresa que valora la diversidad y el equilibrio entre la vida personal y laboral, y que promueve un trabajo orientado a objetivos, empoderado y apasionado. ¡Únete a nosotros!

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Senior SAP Datasphere
  • Improving South America
SQL SAP ETL Power BI

En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil.

La empresa promueve una cultura de trabajo excepcional basada en el trabajo en equipo, la excelencia y la diversión, con enfoque en crecimiento personal y recompensas compartidas. Al integrarse, el/la candidato/a formará parte de una comunidad que prioriza la comunicación abierta y relaciones laborales sólidas a largo plazo, respaldada por una estructura de desarrollo profesional y aprendizaje continuo.

© getonbrd.com. All rights reserved.

Funciones del cargo

  • Diseñar y desarrollar modelos de datos, incluyendo vistas gráficas y vistas SQL.
  • Desarrollar y optimizar consultas SQL para el análisis y procesamiento de datos.
  • Implementar y gestionar flujos de replicación de datos desde SAP S/4HANA utilizando SAP Datasphere.
  • Orquestar pipelines de datos (ELT/ETL) y administrar procesos de ingesta de datos mediante DSP.
  • Diseñar y mantener vistas CDS para soportar las necesidades del negocio.
  • Integrar y preparar datos para su visualización en Power BI.
  • Definir e implementar estrategias de snapshot y persistencia de datos.
  • Automatizar procesos y flujos de trabajo mediante task chains.

Requerimientos del cargo

  • Inglés avanzado, con habilidades de comunicación y colaboración.
  • +8 años de experiencia como consultor SAP.
  • Experiencia sólida en modelado de datos, incluyendo vistas gráficas y vistas SQL.
  • Dominio avanzado de SQL (diseño, optimización y tuning de queries).
  • Experiencia comprobable en flujos de replicación de datos desde SAP S/4HANA utilizando SAP Datasphere.
  • Coordinación de procesos ETL/ELT y gestión de la ingesta de datos mediante Datasphere (DSP).
  • Sólida experiencia en modelado de vistas CDS.
  • Experiencia en integración y consumo de datos con Power BI.
  • Conocimiento en estrategias de snapshot y persistencia de datos.
  • Experiencia en automatización de procesos mediante task chains.

Nice to have

  • Conocimiento general de procesos en SAP S/4HANA (Finanzas, Logística y Procurement).
  • Conocimiento en modelado de datos en Power BI.
  • Experiencia previa con SAP BW/4HANA.
  • Experiencia en monitoreo y optimización de performance.

Conditions

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $400 - 600 Tiempo completo
Data Pipeline Engineer
  • Tritone Analytics, Inc
Python Excel SQL Data Transformation

About Tritone Analytics: Tritone Analytics is a music-technology startup building a forensic royalty auditing platform for the music industry. We help artists, managers, and rights-holders identify unpaid or misreported royalties by combining deterministic data systems with modern AI workflows.

We work with messy, real-world data — distributor reports, royalty statements, contracts — and turn it into structured, queryable systems that power financial analysis and AI-assisted auditing.

Project scope: You will contribute to the core data infrastructure that underpins our platform, focusing on data ingestion, transformation, validation, and the preparation of data for AI workflows. This role sits at the intersection of data engineering, analytical systems, and AI pipelines, ensuring reliable, scalable data processing from messy sources to structured datasets.

Apply directly through getonbrd.com.

What You’ll Work On

  • Build and maintain pipelines that transform messy CSVs, metadata exports, and contracts into structured datasets.
  • Design and enforce canonical schemas across inconsistent data sources to enable reliable analytics.
  • Write SQL to validate outputs, reconcile datasets, and support financial analysis.
  • Debug and improve data quality across ingestion and transformation stages.
  • Support document ingestion workflows (chunking, preprocessing, metadata tagging).
  • Help prepare structured inputs for LLM-based workflows (RAG, extraction, classification).
  • Improve reliability of pipelines (error handling, logging, testing).

What You’ll Need

Core Requirements (Must Have): Strong Python for data processing and scripting with real datasets; strong SQL skills (joins, aggregations, validation queries, debugging data issues); proven experience working with messy or inconsistent data; understanding of ETL pipelines and data transformation workflows; ability to debug data issues and explain root causes.

We value curiosity, collaboration, and a bias toward shipping reliable data products. Candidates who enjoy digging into messy datasets, communicating data issues clearly, and partnering with data scientists and engineers to operationalize AI workflows will excel. Prior experience in music rights or financial data domains is a plus.

Desirable but Not Required

Nice to Have: Experience with DuckDB, Polars, Pandas, or PyArrow; familiarity with Parquet or columnar data formats; exposure to vector databases or RAG systems; experience handling large CSV datasets or financial data; basic understanding of LLM workflows.

Benefits

Benefits to be discussed at time of conversion to a full-time role.

We offer a collaborative, founder-led culture with an emphasis on curiosity, continuous learning, and shipping impactful data products. Competitive compensation, flexible work hours, and opportunities for professional growth in a rapidly evolving music-tech space. Our team is distributed; we value autonomy and ownership over your projects. We support conference attendance, training, and peer knowledge sharing. We look forward to discussing how Tritone can support your career trajectory.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2500 Tiempo completo
Data Consultant
  • Artefact LatAm
  • Bogotá &nbsp Santiago &nbsp Ciudad de México (Hybrid)
Python Data Analysis Excel Power BI
Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.
Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

© Get on Board.

Funciones del cargo

  • Realizar investigación y búsqueda de información relevante para el proyecto; estructurando y ejecutando los análisis de información
  • Desarrollar diagnósticos y proponer soluciones según las necesidades específicas de cada cliente, basadas en un proceso analítico y con una fuerte orientación estratégica
  • Desarrollar entregables accionables, gestionables, innovadores, y con sentido de negocios para el cliente, pensados directamente en la transformación digital
  • Aprender rápidamente de diversos negocios e industrias, así como las herramientas y metodologías requeridas para llevar a cabo el trabajo con cada cliente
  • Presentar el desarrollo y resultados de manera efectiva, para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente, adaptándose a diversos stakeholders
  • Apoyar en la creación de propuestas de proyectos para potenciales clientes, mediante un estudio detallado de la industria y las posibles soluciones que más se ajusten a sus problemas
  • Construir una relación de trabajo con el cliente
  • Apoyar al equipo en la planificación estratégica, y traspasando conocimiento y buenas prácticas

Requerimientos del cargo

  • Formación de Ing. Civil Industrial, Ing. Comercial, Ing. Industrial, Economista o carreras relacionadas
  • Experiencia laboral de 1 a 2 años en consultoría o roles relacionados
  • Dominio avanzado de herramientas de Microsoft Office (Excel, PowerPoint, Word).
  • Conocimiento y manejo de diversas herramientas y soluciones digitales.
  • Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.

Algunos deseables no excluyentes

  • Manejo de Python y herramientas de visualización como PowerBI, Tableau
  • Conocimientos de Data Science.
  • Proficiente en ingles profesional

Algunos de nuestros beneficios para esta posición son:

Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)
...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1200 - 1800 Tiempo completo
Data Analyst (Azure + BI)
  • Asesoría y Gestión de Procesos S.A
Analytics Data Analysis SQL Business Intelligence
En Asesoría y Gestión de Procesos S.A. nos encontramos en un proceso de búsqueda de talento para un equipo de Data & Analytics orientado a impulsar la visibilidad operativa y estratégica de nuestros clientes, principalmente en los sectores automotriz e inmobiliario. El proyecto abarca el ciclo completo del dato: desde la ingesta y el modelado hasta la visualización y el monitoreo proactivo. Nuestro objetivo es transformar datos en insights accionables que impulsen decisiones de negocio, alinear KPIs con objetivos estratégicos y entregar dashboards y alertas confiables para equipos ejecutivos y operativos.
Trabajamos con Azure Data Factory, Data Lake y herramientas de BI como Power BI y Grafana para monitoreo en tiempo real. El rol se integra en una empresa con 12 años de experiencia, un portafolio de más de 120 clientes y una misión clara de acelerar y mejorar procesos mediante tecnología e innovación.

Apply from getonbrd.com.

Funciones y responsabilidades

  • Entender el negocio y definir KPIs clave junto a stakeholders, documentando reglas de cálculo y asegurando que los indicadores sean accionables.
  • Diseñar y desarrollar pipelines ETL/ELT en Azure Data Factory, integrando diversas fuentes (bases de datos, APIs, archivos) y garantizando calidad de datos.
  • Modelar datos en esquemas adecuados y mantener Data Warehouse/Data Mart para consumo analítico eficiente.
  • Desarrollar dashboards interactivos en Power BI y Grafana, traduciendo complejidad analítica en visualizaciones claras y útiles para distintos perfiles.
  • Monitorear datos, definir alertas automáticas y notificaciones ante desviaciones, identificando anomalías y generando insights proactivos.
  • Colaborar con equipos de negocio e IT para garantizar disponibilidad, escalabilidad y seguridad de las soluciones de datos.
  • Participar en la definición de arquitectura de datos y buenas prácticas de gobierno de datos.

Requisitos y perfil

  • Experiencia sólida en integraciones y análisis de datos con Azure Data Factory y servicios de Azure (Data Lake) y manejo avanzado de SQL.
  • Experiencia creando dashboards en Power BI y Grafana; conocimiento de modelamiento de datos (Data Warehouse, OLAP) y procesos ETL/ELT.
  • Capacidad para diseñar soluciones end-to-end: desde la definición de KPIs hasta la entrega de visualizaciones y alertas operativas.
  • Conocimientos en scripting y buenas prácticas de gobierno de datos, calidad y seguridad.
  • Habilidad para comunicar insights a audiencias no técnicas, pensamiento analítico y foco en impacto de negocio.
  • Experiencia previa en roles de BI/analítica y capacidad para trabajar de forma autónoma y colaborativa.

Competencias y habilidades deseables

Certificaciones en BI/Analytics y experiencia con proyectos en sectores automotriz. Se aprecia experiencia en entornos ágiles, gestión de stakeholders y capacidad para priorizar en entornos cambiantes.

Beneficios

En Asesoría y Gestión de Procesos S.A, ofrecemos un entorno laboral flexible y beneficios atractivos, como:
  • Tres tardes libres al año.
  • Vestimenta informal.
  • Dos días libres extra al año.
  • Día libre por tu cumpleaños.
  • Seguro complementario.
  • Y muchos otros beneficios.
¡Esperamos contar contigo en nuestro equipo!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Asesoría y Gestión de Procesos S.A pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation over legal Asesoría y Gestión de Procesos S.A gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero de Datos
  • Devaid
JavaScript Java Python Node.js
En <Devaid> nos apasionan los desafíos tecnológicos y nuestros clientes lo saben. Por lo anterior, nos plantean problemáticas que nos obligan a estar constantemente probando e implementando nuevas tecnologías.
Trabajamos fuertemente en la nube ya que somos Partner Premier de Google Cloud en Chile, por lo que tendrás la oportunidad de formarte como un profesional cloud.
Dependiendo de las necesidades del cliente, <Devaid> ofrece soluciones web, móviles, integración de sistemas, entre otros. Esto permite acceder a la herramienta sin importar el dispositivo ni el lugar dónde se encuentra. Permitimos el trabajo colaborativo entre múltiples usuarios manteniendo una base centralizada de información.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Esperamos que puedas desempeñarte en las siguientes actividades:
  • Creación de pipelines de carga y transformación de datos.
  • Modelamiento de datos y creación de Data Warehouse y Data Lakes.
  • Integración de sistemas.
  • Creación de modelos de machine learning con herramientas low code autoML.
Vas a participar como ingeniero de datos en equipos de consultores que prestan servicios a empresas importantes en Chile. En estos equipos participan distintos perfiles, tales como desarrolladores de software, arquitectos de datos y data scientists. Los servicios se prestan de forma remota y son prestados por proyecto (no es outsourcing de recursos), por lo que puedes trabajar desde tu casa sin problemas. Diariamente vas a tener reuniones con tu equipo para coordinar actividades y resolver temas complejos que vayan surgiendo.

Requerimientos del cargo

Los requisitos para un buen desempeño de las funciones son:
  • 1 año de experiencia como Data Engineer.
  • Programación en lenguaje Python, NodeJS o Java (al menos uno de los 3).
  • Conocimiento de soluciones de Data Warehouse y ETL.
  • Conocimiento de plataformas de procesamiento de datos como Apache Spark, Dataflow o similares.
  • Haber trabajado previamente con alguna nube pública (AWS, Azure o GCP).
Si no cumples alguno de estos puntos no te desanimes, queremos conocerte igualmente.
El trabajo es 100% remoto, pero es necesario que tengas RUT y/o papeles al día en Chile.

Deseables

Suman puntos en tu postulación si cumples alguna de las siguientes habilidades, ninguno de estos son excluyentes:
  • Conocimiento de herramientas Google Cloud, entre ellas Google BigQuery, Dataflow, Data Fusion y Pub Sub.
  • Experiencia en plataformas de deployment de infraestructura como Terraform.
  • Experiencia utilizando la herramienta de consola gcloud.

Beneficios

Prometemos un ambiente muy grato de trabajo, lleno de desafíos y donde podrás ver los proyectos en los que estas involucrada/o siendo utilizados en un corto tiempo activamente por nuestros clientes, lo que siempre es muy gratificante.
Otras actividades:
  • Actividades mensuales (Cupones de Food delivery, juegos en línea, actividades grupales).
  • Actividad paseo anual: La empresa se junta por 2 días en algún lugar turístico para realizar actividades grupales y unir al equipo.
  • Día libre flexible en tu cumpleaños.
  • Capacitaciones en lo que más te guste.
  • Certificaciones Google Cloud: Programa de certificación en distintas ramas profesionales de GCP, gracias a que somos Partner Premier de Google Cloud en Chile.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Devaid pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Education stipend Devaid covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $4000 - 6000 Tiempo completo
Data Platform Engineer
  • InTune Analytics
Python SQL ETL Data governance

InTune Analytics (ITA) is a live entertainment technology company operating as a market maker in the secondary ticket market. We are a small, high-conviction team building proprietary technology to shape the future of live entertainment, with a 10-year goal of impacting 50 million lives by 2035. We don't have a traditional customer base and we don't advertise. Our reputation is built on the quality of our people, the strength of our partnerships, and our relentless drive to execute.

We are seeking a Data Platform Engineer who brings strong foundations in data engineering, analytics engineering, and data infrastructure. The ideal candidate will be adept at designing and building the systems that power reliable, trustworthy data across the organization, from pipelines and warehouses to semantic models and governance frameworks. You will play a pivotal role in making data a durable strategic asset, enabling teams to make confident, data-driven decisions at scale.

This job is available on Get on Board.

What Success Looks Like:

  • A clear company data catalog exists and is actively used by internal teams
  • Data pipelines are reliable, monitored, and failures are caught before reaching stakeholders
  • Business metrics are standardized and consistently defined across tools and teams
  • Data quality issues are caught early through automated checks and alerting

Technically, you:

  • Own and evolve the company data architecture, including warehouse structure, schema design, and data modeling standards
  • Build and maintain a semantic data layer that translates raw data into consistent, business-ready metrics using dbt
  • Design, build, and monitor reliable data pipelines and ETL processes that deliver data to downstream consumers
  • Implement data quality checks, observability, and alerting so issues are caught before they reach business users
  • Build and maintain a company-wide data catalog, driving data governance, lineage, and ownership practices

At a minimum, you have:

  • 3+ years of experience in data engineering, analytics engineering, or data platform development
  • Strong proficiency in SQL and Python
  • Hands-on experience with dbt and a modern data warehouse (Snowflake, BigQuery, or Redshift)
  • Experience with a pipeline orchestration tool (Airflow, Dagster, or Prefect)
  • Familiarity with event pipelines or streaming data
  • Strong communication skills in English

Benefits

Core Benefits (Available Globally) Performance Bonus Bonuses are based on overall performance and contribution during the year. Unlimited Paid Time Off (PTO) ITA offers flexible, unlimited PTO. Remote Work & Workspace Support Home Office Support ITA may provide financial support for home office needs Support may be one-time or recurring, determined case-by-case basis Coworking Space Support ITA can cover the cost of a coworking space if you prefer Language Learning (Fully Covered) ITA fully covers language learning to support communication and personal growth. English or Spanish, available to all team members globally. Continuing Education Support ITA supports professional growth and skill development. Educational expenses may be covered on a case-by-case basis.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer
  • Codeable
Python Git BigQuery ETL
Codeable es una escuela de programación de alta calidad que invierte en sus estudiantes y los entrena como software developers altamente empleables. Durante 6 meses, nuestros estudiantes aprenden las habilidades más demandadas por la industria tecnológica, graduándose con la capacidad de generar valor en entornos de trabajo globales y altamente competitivos. A la fecha, Codeable ha graduado a más de 120 estudiantes en sus primeras 4 promociones, y estamos listos para escalar nuestra oferta inclusiva y graduar a más de 200 estudiantes durante el 2022.

Official job site: Get on Board.

Funciones

  • Diseñar, construir y mantener pipelines ETL/ELT utilizando Airflow, Prefect o Cloud Composer.
  • Desarrollar procesos de extracción de datos mediante Python: scripting, scraping automatizado (Playwright, Puppeteer o Selenium) y consumo de APIs.
  • Implementar y optimizar transformaciones sobre CSV/JSON y estructuras heterogéneas.
  • Administrar y optimizar datasets en Google BigQuery: creación de tablas, relaciones, vistas materializadas y performance tuning.
  • Trabajar con DataFrames en pandas o PySpark para manipulación y limpieza de datos.
  • Implementar automatización de tareas (cronjobs, DAGs, Cloud Functions).
  • Crear scripts de validación, depuración y normalización de datos.
  • Colaborar con equipos de Data Science / BI para habilitar análisis avanzados (incluyendo sentiment analysis y clasificación básica de texto).
  • Documentar la trazabilidad, linaje y estructura del flujo de datos.
  • Mantener buenas prácticas de control de versiones y despliegue con Git y CI/CD.

Descripción

Buscamos un/a Data Engineer con experiencia en el diseño, construcción y mantenimiento de pipelines de datos de alta calidad. Serás responsable de la extracción, transformación, carga y orquestación de datos provenientes de diversas fuentes (APIs, scraping, archivos, plataformas). Trabajarás en la automatización, optimización y documentación de procesos, proponiendo mejoras técnicas y asegurando estándares de calidad en todo el flujo de datos.

Requisitos deseables

  • Conocimiento de OAuth2, tokens, paginación y manejo de rate limits.
  • Familiaridad con NLP básico: sentiment analysis, clasificación de texto, transformers o NLTK/spaCy.
  • Conocimientos de R o Node.js para integraciones adicionales.

Nuestros Valores

  • Ponemos a las personas primero. Nos preocupamos, estamos abiertos y alentamos a todas las personas con las que trabajamos
  • Pensamos y actuamos con responsabilidad. Somos responsables de identificar los problemas y hacemos todo lo posible para ayudar a resolverlos
  • Mejoramos todos los días. Creemos que todos tenemos la capacidad de mejorar y estamos motivados a ayudar a todos a ser la mejor versión de sí mismos
  • Estamos comprometidos con la diversidad. Contribuimos a un mundo en el que podamos ser nosotros mismos, juntos
  • Estamos todos JUNTOS en esto. Somos una comunidad de estudiantes, emprendedores y tecnólogos unidos por la misma misión: cerrar la brecha entre el talento y las oportunidades en tecnología en Latinoamérica

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Arquitecto de Datos / Sector Bancario
  • Devsu
  • Quito (Hybrid)
Python SQL Virtualization Amazon Web Services

Con más de 10 años de experiencia impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y Latinoamérica, Devsu ha desarrollado soluciones de alto impacto en sectores como el entretenimiento, la banca, la salud, el comercio minorista, la educación y los seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de un aprendizaje continuo y de participar en proyectos desafiantes y de gran impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en una variedad de productos y soluciones de software.

Estamos en búsqueda de un Arquitecto de Datos con experiencia comprobada en la plataforma Stratio y en arquitecturas de datos basadas en Amazon Web Services (AWS).

Find this vacancy on Get on Board.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en tiempo real (NRT) y por lotes usando Spark.
  • Diseñar y evolucionar arquitecturas de datos utilizando Stratio Data Fabric.
  • Construir y optimizar pipelines de datos en AWS: ingestión, transformación, almacenamiento y exposición.
  • Implementar políticas de seguridad, calidad y gobierno de datos.
  • Colaborar con equipos de desarrollo, analítica y DevOps para asegurar integración y despliegues eficientes.
  • Documentar arquitecturas, modelos de datos y decisiones técnicas clave.
  • Liderar la toma de decisiones sobre herramientas, patrones y estándares tecnológicos.

Requerimientos del cargo

  • +5 años de experiencia en arquitectura de datos.
  • Experiencia práctica con Stratio Platform: configuración, virtualización, gobierno de datos, etc.
  • Sólidos conocimientos en servicios de AWS: S3, Glue, Redshift, Lambda, Athena, Kinesis, EMR, IAM.
  • Dominio en arquitecturas basadas en eventos, procesamiento en tiempo real (real-time), Data Lakes y Lake Houses.
  • Experiencia con herramientas de infraestructura como código: Terraform o CloudFormation.
  • Conocimiento en lenguajes y frameworks como: Python, SQL, Spark / PySpark.

Requisitos deseables:

  • Certificaciones AWS (ej. Data Analytics, Solutions Architect).
  • Experiencia previa en banca, seguros o telecomunicaciones (telcos).
  • Conocimiento en herramientas de visualización como Power BI, Looker o Tableau.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Arquitecto de Datos – Modalidad Híbrida
  • Factor IT
  • Santiago (Hybrid)
Python Analytics Virtualization Amazon Web Services
FactorIT, una empresa líder en tecnología y soluciones de datos con presencia en 8 países de Latinoamérica, busca ampliar su equipo con un Arquitecto de Datos. Serás parte de proyectos regionales de transformación digital, trabajando en entornos Cloud para una cartera diversificada, especialmente en el sector financiero. Participarás en iniciativas que combinan analítica avanzada, automatización e IA, enfocados en entregar soluciones escalables y seguras que generan valor real para nuestros clientes. Formarás parte de un equipo colaborativo, orientado a la innovación, con oportunidades de desarrollo profesional y exposición a tecnologías de última generación.

Job source: getonbrd.com.

Principales responsabilidades

  • Diseñar arquitecturas de datos en entornos cloud que sean escalables, seguras y alineadas con las necesidades del negocio.
  • Definir e implementar pipelines de datos (ETL/ELT) para ingesta, procesamiento y distribución eficiente de datos.
  • Modelar datos para analítica avanzada y consumo por herramientas de BI y ciencia de datos.
  • Asegurar la calidad, gobernanza y disponibilidad de los datos mediante prácticas de Data governance y data quality.
  • Colaborar con equipos de ingeniería, analítica y negocio para convertir requerimientos en soluciones técnicas efectivas.
  • Evaluar e incorporar tecnologías y herramientas de datos emergentes (data lake/warehouse, data catalog, data virtualization).
  • Participar en la definición de estrategias de DataOps y MLOps cuando aplique, para operaciones de datos y modelos de ML.

Descripción

Buscamos un profesional con experiencia sólida en Arquitectura de Datos para liderar la definición de soluciones de datos en un entorno cloud. El/la candidato/a ideal tendrá habilidad para traducir requerimientos de negocio en arquitecturas eficientes, con foco en gobernanza, calidad y seguridad de los datos. Deberá colaborar estrechamente con equipos de ingeniería, analítica y negocio para garantizar que las soluciones soporten analítica avanzada, reporting y modelos de ML. Se valorará experiencia en entornos financieros y capacidad para trabajar en proyectos regionales con impacto real.
Requerimos dominio de procesos ETL/ELT, experiencia en modelamiento de datos relacional y no relacional, y experiencia en diseño de data lakes y/o data warehouses. Se espera manejo de Python para procesamiento de datos, y experiencia con herramientas nativas de AWS, Azure o GCP. Será clave una mentalidad de Data Governance, calidad de datos y prácticas de seguridad para evitar riesgos de cumplimiento y expose a datos sensibles. Buscamos perfiles orientados a resultados, con capacidad de comunicar complejas soluciones técnicas a stakeholders de negocio y con ganas de aprender y adaptarse a tecnologías emergentes.

Deseables

Experiencia con herramientas como Spark, Databricks o similares. Conocimiento en DataOps y/o MLOps. Experiencia en arquitecturas modernas (Lakehouse, Data Mesh). Inglés intermedio o superior.

Beneficios

Ofrecemos una modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre la vida profesional y personal. Ambiente colaborativo, dinámico y con tecnologías de última generación que facilitan el crecimiento profesional y la innovación tecnológica. Paquete salarial competitivo acorde a experiencia y perfil, y una cultura inclusiva que valora la diversidad y el trabajo en equipo. Al unirte, participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y el sector financiero, dentro de una organización que fomenta la innovación y el desarrollo profesional continuo.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 2200 Tiempo completo
Business Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Excel SQL
BC Tecnología es una consultora de TI con personal experto en diferentes áreas tecnológicas, dedicada a servicios IT, administración de portafolio, desarrollo de proyectos, outsourcing y selección de profesionales. Nos especializamos en crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Buscamos aportar en proyectos innovadores con altos estándares de calidad y enfoque en cambios organizacionales y desarrollo de productos. Esta posición se desempeña dentro de un entorno de proyectos por contrato y enfocado a resultados de negocio de clientes de alto nivel.

Exclusive offer from getonbrd.com.

Funciones

Como Business Analyst, tendrás foco en producto, orientado a la calidad funcional y a la mejora continua de aplicaciones digitales. Serás responsable de asegurar la calidad funcional de aplicaciones web y móviles, analizar, documentar y optimizar flujos de usuario, gestionar bugs end-to-end y apoyar la priorización de iniciativas con foco en el impacto de negocio. Participarás en ceremonias ágiles, colaborarás con equipos multifuncionales y asegurarás trazabilidad de requerimientos y métricas de aceptación. Deberás trabajar de forma colaborativa con PMs, TA/QA y desarrollo para alinear entregables con las expectativas de negocio y usuarios finales, manteniendo una comunicación clara con stakeholders y respaldando las decisiones con datos.

Requisitos

Al menos 3 años de experiencia como Business Analyst. Experiencia en análisis de negocio y mejora de procesos. Conocimiento en QA funcional (no excluyente). Manejo de SQL (intermedio). Deseable Python. Experiencia con Jira, Postman y Excel avanzado. Capacidad para documentar procesos, mapear flujos y definir criterios de aceptación claros. Habilidad para trabajar en entornos ágiles y facilitar reuniones de priorización. Orientación a resultados, pensamiento analítico, comunicación efectiva y habilidades para trabajar con clientes y equipos multidisciplinarios. Se valorará experiencia en entornos financieros y conocimiento de herramientas de automatización de pruebas.

Deseables

Deseables: experiencia previa en análisis de productos digitales, conocimientos de metodologías de diseño centrado en el usuario, experiencia en automatización de pruebas y familiaridad con herramientas de pruebas de rendimiento. Capacidad de trabajar de forma proactiva, con iniciativa, y habilidades para gestionar múltiples iniciativas simultáneamente. Bilingüe español-inglés es un plus, al trabajar con clientes y equipos internacionales.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 4000 Tiempo completo
Senior Data Engineer
  • Artefact LatAm
Python Big Data English Back-end

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Engineer tendrá la responsabilidad de liderar el desarrollo de proyectos de Big Data con clientes, diseñando y ejecutando arquitecturas de datos que sirvan como puente entre la estrategia empresarial y la tecnología, bajo los principios de gobernanza de datos establecidos por los clientes. Además, será responsable de diseñar, mantener e implementar estructuras de almacenamiento de datos tanto transaccionales como analíticas. Este rol implica trabajar con grandes volúmenes de datos provenientes de diversas fuentes, procesarlos en entornos de Big Data y traducir los resultados en diseños técnicos sólidos y datos consistentes. También se espera que revise la integración consolidada de datos y describa cómo la interoperabilidad capacita a múltiples sistemas para comunicarse entre sí.

Job source: getonbrd.com.

Tus responsabilidades serán:

  • Diseñar arquitecturas de datos que cumplan con los requisitos de los clientes y se alineen con su estrategia empresarial, asegurando la adherencia a los principios de gobernanza de datos.
  • Diseñar, implementar, mantener y actualizar estructuras de almacenamiento de datos transaccionales y analíticas, garantizando la integridad y disponibilidad de los datos.
  • Extraer datos de diversas fuentes y transferirlos eficientemente a entornos de almacenamiento de datos.
  • Diseñar e implementar procesos que soporten grandes volúmenes de datos en entornos de Big Data, utilizando herramientas y tecnologías pertinentes en cada proyecto.
  • Comunicar hallazgos, resultados y diagnósticos efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Colaborar con equipos multidisciplinarios en la gestión estratégica de proyectos, asegurando la entrega oportuna y exitosa de soluciones de datos.
  • Desarrollar y mantener soluciones en la nube y on premise.
  • Utilizar metodologías ágiles para el desarrollo y entrega de soluciones de datos, adaptándose rápidamente a los cambios y requisitos del proyecto.
  • Apoyar al equipo traspasando conocimientos y buenas prácticas, apoyando en la capacitación y aprendizaje continuo según las necesidades individuales de los miembros
  • Gestionar al equipo mediante una planificación estratégica del proyecto, asegurando una distribución eficiente de tareas y una comunicación clara de los objetivos.

Los requisitos del cargo son:

  • Experiencia mínima de 3 años en el uso de herramientas de gestión de datos.
  • Experiencia previa en la gestión estratégica de equipos multidisciplinarios.
  • Conocimientos avanzados de Python o Pyspark y experiencia en su aplicación en proyectos de datos.
  • Experiencia en el diseño e implementación data warehouse, data lakes y data lake house
  • Desarrollo de soluciones de disponibilización de datos.
  • Experiencia práctica con al menos uno de los principales almacenes de archivos en la nube.
  • Buen manejo del inglés.

Algunos deseables no excluyentes:

  • Experiencia en consultoría y/ proyectos de estrategia o transformación digital
  • Experiencia con servicios de procesamiento y almacenamiento de datos de AWS o GCP, Azure
  • Certificaciones

Algunos de nuestros beneficios:

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros (Chile).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Operational Engineer
  • TIMINING
  • Santiago (Hybrid)
Python Git SQL Web server

En TIMining, trabajamos para convertir la información operativa de las faenas mineras en valor accionable a través de nuestras plataformas de control y monitoreo. Este rol se integra al equipo de datos, aportando en el diseño, desarrollo y operación de pipelines ETL que integran fuentes diversas hacia las bases de datos y productos de TIMining. Serás parte de un proyecto orientado a la continuidad operativa, la calibración de algoritmos y la automatización de procesos internos para optimizar el flujo de trabajo del cliente y del equipo.

Apply exclusively at getonbrd.com.

Funciones

  • Desarrollar, mantener y documentar scripts en Python y SQL (conectores) para ETL hacia las bases de datos de los productos de TIMining.
  • Diseñar, implementar y mantener flujos de CI/CD para que los cambios en las pipelines lleguen a producción de forma segura y automatizada.
  • Monitorear la salud y rendimiento de procesos de datos (logging y alerting), garantizando uptime y respuestas ante incidentes operativos.
  • Administrar y orquestar pipelines con herramientas de planificación (Airflow, Dagster) y contenedores (Docker).
  • Validar resultados de pipelines (cualitativa y cuantitativamente) comparando con reportes operacionales de faenas.
  • Identificar, evaluar y mitigar riesgos en el desarrollo de pipelines, contemplando calidad de datos y planes de contingencia.
  • Desarrollar proyectos internos para automatizar labores rutinarias y simplificar el trabajo del equipo.
  • Asistir y presentar en reuniones técnicas con clientes para gestionar accesos a fuentes de información y resolver consultas.
  • Analizar y documentar fuentes de información del cliente por sistema (FMS, MGS u otras) y calibrar algoritmos de los softwares de la empresa.
  • Ejecutar turnos 24/7 para asegurar continuidad operativa.

Requisitos y experiencia

Formación en Ingeniería en Ciencia de Datos, Ingeniería Civil o carreras afines en computación. Se requieren mínimo 2 años de experiencia en cargos similares y experiencia comprobable en la implementación de pipelines ETL. Se valora conocimiento y manejo avanzado de Python y SQL, experiencia práctica en despliegue de aplicaciones y manejo de contenedores, así como experiencia en orquestación de datos con herramientas como Apache Airflow o Prefect. Dominio de control de versiones (Git) y trabajo colaborativo, consultas a APIs y bases de datos avanzadas. Conocimientos de Google Suite y Office. Habilidades analíticas, proactividad y capacidad para trabajar de forma autónoma y en equipo. Idiomas: Español nativo; Inglés deseable (upper-intermediate).

Se buscan candidatos con experiencia en proyectos tecnológicos y conocimiento de la industria minera a cielo abierto, además de experiencia con arquitecturas Cloud (AWS, Azure o GCP) e Infraestructura como Código (Terraform, CloudFormation).

Requisitos deseables

Experiencia en:
- Implementación de proyectos tecnológicos.
- Conocimiento de la industria minera y su operación.
- Familiaridad con metodologías ágiles, y experiencia con herramientas de Infraestructura como Código.
- Deseable conocimiento en soluciones de monitoreo y en entornos de producción de datos a gran escala.

Beneficios

Ofrecemos un entorno enfocado a innovación en la industria minera, con oportunidades de desarrollo profesional y trabajo en equipo multidisciplinario. Si cumples con el perfil, te invitamos a formar parte de TIMining y contribuir a la transformación digital de operaciones mineras.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2500 Tiempo completo
Data Consultant Artefact
  • Artefact LatAm
  • 4 cities (In-office)
Analytics Artificial Intelligence English Client Management

Artefact no es una consultora de datos con ambición estratégica, ni una consultora de estrategia con capacidad técnica. Es las dos cosas a la vez, y este rol vive exactamente en esa intersección.
El Consultor Senior es quien convierte un problema de negocio mal definido en un plan de trabajo ejecutable, quien traduce un hallazgo técnico en una decisión de C-Level, y quien mantiene al equipo enfocado en lo que importa cuando el proyecto se complica. Sin dependencia constante de su manager.

Apply without intermediaries through Get on Board.

Funciones del cargo

  • Estructura problemas, no tareas. Descompone desafíos de negocio complejos en árboles de hipótesis MECE, define flujos de trabajo priorizados por impacto, y diseña los entregables de su stream con poco o ningún input externo. Sabe distinguir cuándo innovar en el approach y cuándo mantener el estándar dado el tiempo disponible.
  • Lleva al cliente. Conduce sesiones de trabajo, workshops y reuniones de avance de forma autónoma. Construye relaciones sólidas con los equipos del cliente — no necesariamente con el C-Level, pero sí con quienes ejecutan. Anticipa sus necesidades antes de que las verbalicen y detecta conversaciones que pueden convertirse en oportunidades de expansión.
  • Conecta negocio y tecnología. Traduce objetivos de negocio en requerimientos técnicos comprensibles para equipos de datos. Lidera la construcción de casos de negocio con estimación de impacto financiero. Valida que las conclusiones analíticas sean sólidas, accionables y coherentes con el problema original — no solo técnicamente correctas.
  • Gestiona el riesgo antes de que se convierta en problema. Mapea riesgos del proyecto, identifica actividades fuera de alcance, y lleva propuestas de solución a su manager — no solo alertas. Cuando aparece un bloqueante (datos no disponibles, desfase de alcance, cambio de interlocutor), encuentra alternativas y las valida rápido.
  • Desarrolla al equipo. Delega con claridad, explica el "para qué" sin microgestionar, revisa la calidad del trabajo de perfiles junior con criterio propio y da feedback accionable y regular. Hace 1:1s con su equipo, no porque toca, sino porque construye capacidad.
  • Contribuye hacia afuera. Apoya activamente en propuestas comerciales. Participa en iniciativas internas y, en algunos casos, las lidera. Genera contenido o formaciones que difunden conocimiento del proyecto dentro de Artefact.

Requerimientos del cargo

  • Experiencia en consultoría estratégica o de analítica avanzada (no necesariamente ambas, pero sí con exposición real a negocio)
  • Pensamiento estructurado — comunica por pirámide, no por stream of consciousness
  • Capacidad de síntesis ejecutiva: sabe lo que poner en una slide y lo que no
  • Comodidad real con datos e IA como palancas de negocio — no hace falta que programe, sí que entienda qué es posible y qué no
  • Autonomía para operar en entornos ambiguos sin necesitar validación constante
  • Español fluido; inglés profesional

Condiciones

- Dias adicionales de vacaciones
- Bono Empresa a partir de los resultados del año.
- Becas y montos asociados a capacitación.
- Tarde libre de cumpleaños
- Opción de trabajo híbrido / remoto
- Cowork en ciudades clave donde opera la empresa.
- Eventos trimestrales en hubs.
- Horario flexible.
- Post natal extendido para hombres y mujeres.
- Posibilidad de intercambios con otros países con presencia del grupo.
- Almuerzos quincenales de camaradería.
- Posibilidad de participar en proyectos a nivel global.
- Posibilidad de participar de entrenamientos y eventos internacionales.

Library Access to a library of physical books.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero/a Senior de Plataforma de Datos (Kafka & Nifi)
  • BC Tecnología
Java Scala Nifi Automation
BC Tecnología es una consultora de TI con un fuerte enfoque en entregar soluciones de alto impacto para clientes de servicios financieros, seguros, retail y gobierno. El equipo celebra el desarrollo de soluciones ágiles en infraestructuras, desarrollo de software y unidades de negocio, con un portfolio que abarca diseño de soluciones, formación de equipos, outsourcing y desarrollo de proyectos. Trabajamos con tecnologías de punta y metodologías ágiles para entregar resultados de negocio medibles, con un compromiso claro hacia la satisfacción del cliente y la mejora continua.

Apply exclusively at getonbrd.com.

Qué harás

Como Ingeniero/a Senior de Plataforma de Datos, liderarás la operación y continuidad de plataformas basadas en Apache Kafka y Apache NiFi en entornos críticos. Tus responsabilidades incluirán monitoreo proactivo, health-checks y resolución de incidentes complejos, proponiendo mejoras de arquitectura para alta disponibilidad y planes de disaster recovery. Automatizarás tareas operativas, optimizarás rendimiento y gestionarás tópicos, brokers, flujos e interfaces. Implementarás monitoreo, alertas y reportería de performance, y garantizarás prácticas de seguridad (mTLS, RBAC). Participarás en despliegues y soporte 7x24 (turnos) y servirás como punto de escalamiento técnico.

Requisitos y perfil

Requisitos: +4 años de experiencia en roles similares y experiencia sólida con Kafka y/o NiFi. Conocimientos en monitoreo, automatización y tuning de rendimiento. Experiencia en entornos críticos y gestión de incidentes. Deseable experiencia en seguridad (mTLS, RBAC). Habilidades de diagnóstico, comunicación clara y orientación a resultados. Buscamos profesionales que trabajen bien en equipos reales y distributed, con capacidad de priorizar y gestionar incidentes bajo presión, manteniendo un enfoque en la calidad y la seguridad.

Deseables

Conocimientos adicionales en seguridad de datos, experiencia en nube (AWS, Azure, GCP) y experiencia con herramientas de orquestación de contenedores. Certificaciones en Kafka/NiFi o similares serán valoradas. Se valora actitud proactiva, aprendizaje continuo y habilidades de colaboración en equipos multiculturales. Se ofrece un entorno técnico de alto nivel, con oportunidades de desarrollo profesional y participación en proyectos de gran complejidad.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile SQL Oracle
En BC Tecnología diseñamos equipos de trabajo ágiles para servicios IT, con foco en Infraestructura, Desarrollo de Software y Unidades de Negocio para clientes en Finanzas, Seguros, Retail y Gobierno. Nuestro objetivo es entregar soluciones de alto impacto mediante consultoría, desarrollo de proyectos, outsourcing y selección de personal.
Como parte de nuestro programa CRM Customer Services migramos y consolidamos datos a plataformas cloud (AWS) y Dynamics 365 Dataverse, garantizando integridad, calidad y disponibilidad de la información para operaciones y analítica. Participarás en iniciativas innovadoras con clientes de alto nivel, con enfoque en aprendizaje continuo y desarrollo técnico dentro de un entorno colaborativo y orientado al cliente. La modalidad híbrida permite combinar trabajo remoto con presencia en nuestras oficinas para fomentar colaboración y dinamismo.

Applications: getonbrd.com.

Funciones

  • Diseñar, desarrollar y ejecutar procesos de ingeniería de datos y migración requeridos por el programa CRM Customer Services, asegurando la integridad, calidad y disponibilidad de los datos en plataformas cloud.
  • Conocimientos técnicos: ingeniería de datos en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions); ETL/ELT para diseño y desarrollo de pipelines de datos; migración de datos entre sistemas legados y plataformas cloud; SQL avanzado y modelado de datos (dimensional, relacional).
  • Desarrollar pipelines en Python y Spark/PySpark, aplicar calidad de datos (validación, limpieza, reconciliación, profiling) y utilizar herramientas de orquestación (Airflow, Step Functions); control de versiones y CI/CD aplicado a datos.
  • Conocer Microsoft Dynamics 365 Dataverse y su modelo de datos; diseñar y ejecutar migraciones desde sistemas legados hacia plataformas cloud y Dynamics 365; documentar modelos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles, reportar avances y colaborar con QA para validación end-to-end; transferir conocimiento de datos al equipo y colaborar estrechamente con el Technical Lead en la arquitectura de datos del programa.

Requisitos y perfil

Buscamos un profesional con experiencia sólida en ingeniería de datos en entornos cloud, especialmente AWS, y en proyectos de migración de datos hacia soluciones modernas de nube y CRM. Debes dominar pipelines ETL/ELT, modelado de datos relacional y dimensional, y tener capacidad para trabajar en entornos dinámicos y colaborativos. Se valorará experiencia con Oracle/Siebel, Great Expectations o Deequ para calidad de datos, y conocimiento del sector Retail. Debes ser proactivo, orientado a resultados, con habilidades de comunicación para trabajar con equipos multidisciplinarios y stakeholders.
Requisitos mínimos: experiencia en AWS Data Analytics/Data Engineering; diseño y migración de datos entre sistemas; SQL avanzado; Python o Spark; experiencia con herramientas de orquestación; familiaridad con Dynamics 365 Dataverse; experiencia en entornos ágiles y capacidad para documentar procesos y modelos de datos. Deseable certificación AWS Data Analytics, experiencia en migración desde Oracle/Siebel y conocimiento de herramientas de calidad de datos. Se valora experiencia en Retail y en entornos de CRM.

Conocimientos Deseables

Certificación AWS Data Analytics o Data Engineering. Experiencia migrando datos desde Oracle/Siebel. Conocimiento en herramientas de calidad de datos como Great Expectations o Deequ. Experiencia en el sector Retail. Conocimiento adicional en DevOps de datos y metodologías ágiles. Habilidad para trabajar en equipos multiculturales y capacidad de explicar conceptos técnicos a audiencias no técnicas. Se valora experiencia en arquitectura de datos para CRM y en gestión de proyectos de migración complejos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer Senior
  • Grupo Mariposa
Git SQL QA BigQuery

Somos una corporación multinacional de bebidas y alimentos con operaciones regionales, un portafolio amplio de marcas y una estrategia acelerada de transformación digital. Dentro de Apex Digital / M5, el área de Data & Analytics habilita productos analíticos, datos gobernados y capacidades avanzadas para las unidades de negocio, incluyendo CBC, Beliv, BIA y las iniciativas transversales de transformación digital.

Send CV through Get on Board.

Funciones del cargo

1. Diseñar e implementar soluciones de ingeniería de datos escalables, eficientes y mantenibles utilizando tecnologías de Google Cloud, tales como:
  • Cloud Dataflow / Apache Beam (procesamiento distribuido ETL/ELT)
  • BigQuery (almacenamiento, warehouse y motor analítico)
  • Cloud Storage (Data Lake)
  • Dataproc (Spark administrado, cuando aplique)
  • BigQuery / Data Catalog (gobernanza y catalogación)
2. Aplicar modelos de arquitectura por capas (Bronze / Silver / Gold) en un Lakehouse basado en Google Cloud

  • Implementación de un Data Lake en Cloud Storage.
  • Transformaciones intermedias y normalización en Dataflow / Dataproc para capa silver.
  • Exposición de capas refinadas en BigQuery para capa gold orientada a analítica, BI y ML.
  • Definición de estándares de naming, particionamiento, clustering y particionado por tiempo.

3. Automatizar ETL/ELT con enfoques modernos de data engineering

  • Orquestación modular y escalable con Cloud Composer (Airflow).
  • Pipelines idempotentes, reproducibles y versionados.
  • Implementación de validaciones de calidad de datos (DQ) usando:
  • BigQuery Assertions
  • Great Expectations (si aplica)
  • Cloud Composer operators
  • Manejo de Slowly Changing Dimensions (SCD1/SCD2) mediante SQL en BigQuery o Dataflow.
  • Integración CI/CD para despliegue de DAGs, jobs y transformaciones.
4. Garantizar datos confiables, gobernados y optimizados en costos y performance

  • Optimización de costos en BigQuery mediante clustering, particionado y control de consultas.
  • Optimización de Dataflow (autoscaling, tuning, fusión de etapas, ventanas y triggers).
  • Seguridad y gobernanza con Dataplex, IAM y Data Catalog.
  • Documentación robusta del linaje, arquitectura y flujos de datos.
  • Aplicación de estándares de ingeniería:
    • PEP8 para Python
    • Buenas prácticas de SQL
    • Gestión de código con Git / GitFlow
    • Testing y validación automatizada

Requerimientos del cargo

  • Coordinar y operar los entornos de datos (dev/qa/prod), asegurando estabilidad, monitoreo y correcto funcionamiento de los pipelines.
  • Extraer, transformar y cargar datos según las necesidades del negocio, aplicando arquitectura por capas (Bronze/Silver/Gold).
  • Construir integraciones eficientes entre sistemas, APIs y fuentes internas/externas, garantizando integridad y disponibilidad.
  • Implementar flujos CI/CD para despliegue seguro de pipelines y validación automatizada de datos y código.
  • Mentorizar a ingenieros junior en buenas prácticas, estándares de calidad y diseño escalable.
  • Proponer e implementar mejoras tecnológicas que optimicen performance, costos y gobernanza de datos.

Principales Retos

  • Integrar diversas fuentes de datos y asegurar su consistencia.
  • Diseñar y mantener un Lakehouse escalable (Bronze/Silver/Gold).
  • Optimizar performance y costos en BigQuery y procesos de ingesta.
  • Orquestar y monitorear flujos complejos de datos de extremo a extremo.
  • Garantizar calidad, linaje y gobernanza en todos los datasets.
  • Habilitar datos confiables para analítica, BI y productos digitales.
  • Escalar y evolucionar la arquitectura conforme crezcan los casos de uso.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Grupo Mariposa pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Sr Data Engineer – CRM Customer Service
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con experiencia en servicios IT, outsourcing y selección de profesionales. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, con clientes en servicios financieros, seguros, retail y gobierno. Buscamos incorporar a nuestro equipo a un/a SR Data Engineer con fuerte enfoque en CRM y migración de datos para proyectos de CRM Customer Service, entre otros clientes de alto nivel. El rol forma parte de iniciativas de modernización de datos, migración a la nube y fortalecimiento de la gobernanza de datos para un programa orientado a soluciones de experiencia del cliente.

This job is exclusive to getonbrd.com.

Funciones principales

  • Diseñar y desarrollar pipelines ETL/ELT para integración y migración de datos.
  • Ejecutar migración de datos desde sistemas legados hacia plataformas cloud y Dynamics 365.
  • Asegurar integridad, calidad y disponibilidad de los datos mediante validaciones y reconciliaciones.
  • Colaborar con el Technical Lead en la arquitectura de datos del programa.
  • Documentar modelos de datos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles y reportar avances del frente de datos.
  • Colaborar con QA en validación end-to-end de datos.
  • Transferir conocimientos de datos al equipo.

Descripción

Requerimos un/a profesional con al menos 4 años de experiencia en ingeniería de datos, con prioridad en entornos CRM y retail. El/la candidato/a será responsable de diseñar e implementar pipelines para extracción, transformación y carga de datos, así como gestionar migraciones complejas desde sistemas legados hacia entornos en la nube y Microsoft Dynamics 365 Dataverse. Se integrará a un equipo técnico colaborativo, participando en la definición de la arquitectura de datos, la aseguración de calidad y la entrega continua mediante prácticas CI/CD aplicadas a datos. Se valorará experiencia en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions), Airflow o Step Functions para orquestación, Python y Spark/PySpark, manejo de SQL avanzado, modelado dimensional y relacional, y conocimiento de Dynamics 365.
Buscamos proactividad, orientación a resultados y habilidades de comunicación para trabajar en un entorno ágil y multi-funcional, con foco en la entrega de valor al negocio y una cultura de mejora continua.

Requisitos deseables

Experiencia en migración de datos entre sistemas ERP/CRM a plataformas en la nube; familiaridad con governance de datos, reconciliaciones y validación de datos de extremo a extremo; experiencia con teams y stakeholders de negocio; certificaciones en AWS o Data & Cloud; capacidad de documentación clara y ordenada; conocimientos de Microsoft Dynamics 365 Dataverse. Se valorará experiencia en retail y servicios de CRM, y habilidad para trabajar en entornos regulados.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $3500 - 4000 Tiempo completo
Power BI & Reporting Expert
  • Coderslab.io
Data Analysis SQL Power BI English

Coderslab.io is looking to hire a Power BI Developer (Reporting & Analytics) to drive the design, development, and optimization of data visualization and reporting solutions across the organization.

We are seeking a highly analytical and detail-oriented Power BI & Reporting Expert to join our data team. In this role, you will be responsible for transforming raw data into actionable insights by designing, developing, and maintaining complex BI solutions. The ideal candidate is a master of data visualization and possesses the technical depth to optimize reporting performance across diverse data environments.

About the client and the project: the company delivers innovative technology solutions and provides opportunities for continuous learning under the guidance of experienced professionals and cutting-edge technologies.

Send CV through getonbrd.com.

Funciones del cargo

Dashboard Development: Design and implement high-end, interactive Power BI dashboards and reports that provide clear business value.

Data Modeling: Build and optimize robust data models (Star Schema/Snowflake) to ensure reporting accuracy and high performance.

DAX & Power Query: Write advanced DAX calculations and utilize Power Query (M language) for complex data transformation and business logic.

Reporting Strategy: Collaborate with stakeholders to define Key Performance Indicators (KPIs) and translate business requirements into technical specifications.

Performance Tuning: Monitor and optimize report performance, ensuring fast load times and efficient data refresh cycle

Requerimientos del cargo

  • Professional Experience: Proven track record as a Power BI Expert, Data Analyst, or in a similar reporting-focused role.
  • Technical Mastery: Advanced command of Power BI Desktop, Power BI Service, and DAX.
  • Language Proficiency: C1 English level (Advanced/Fluent) is mandatory, as you will be communicating with international stakeholders and documenting technical processes in English.
  • SQL Skills: Strong ability to write and optimize SQL queries for data extraction.
  • Analytical Mindset: Exceptional ability to interpret complex data sets and present findings in a visually compelling way.
  • Database Knowledge: Hands-on experience or familiarity with ClickHouse is highly valued.

Condiciones

Contractor and remote position
English C1

VER TRABAJO POSTULAR VÍA WEB
Gross salary $1,000 Tiempo completo
Trade Operations Analyst
  • Promomash Inc.
Analytics Excel Sales English

Promomash Inc. is seeking a detail-oriented Trade Analyst to ensure accurate trade execution, pricing, and reporting by managing client trade data, configuring trade structures in the platform, and resolving trade-related exceptions. This role spans Trade and Deduction operations, ensuring trade events and promotional data are correctly set up to support automated deduction clearing and reliable financial outcomes. You will collect and validate client data, maintain trade configurations, and analyze and resolve complex trade-related deduction issues in collaboration with cross-functional teams. The position supports onboarding and ongoing operations for multiple clients, coordinating with Sales, Client Success, and Finance to drive accurate analytics and clean financial results.

Apply directly from Get on Board.

Key Responsibilities

  • Client Data Intake & Platform Setup
  • Collect, review, and manage trade-related data from clients during onboarding and ongoing operations
  • Validate incoming data for completeness, format compliance, and alignment with platform requirements
  • Set up and maintain foundational trade data in the platform, including products, customers, reason codes, distribution and pricing structures
  • Upload and manage client datasets including promotions, contracts, POS data, distributor shipment data, sales invoices, and base volume data
  • Data Validation & Quality Assurance
  • Ensure all uploaded data reflects client source files
  • Perform reconciliation and validation checks across datasets to identify gaps or inconsistencies
  • Proactively identify data issues that could impact trade analytics, reporting, or deduction clearing
  • Document data assumptions, exceptions, and resolutions
  • Deduction Allocation & Trade Exception Resolution
  • Review deductions in Awaiting Allocations and analyze trade-related exceptions (e.g., missing or incomplete trade events, date misalignment, rate or item discrepancies, eligibility issues)
  • Determine resolution paths to move deductions from Awaiting Allocations to Cleared
  • Create or update trade events to correct data, including rates, dates, items, and customer eligibility
  • Validate that trade corrections align with client-approved terms and enable accurate deduction allocation and clearing
  • Cross-Functional & Client Collaboration
  • Partner with the Deductions team to request recoding or clarifications when trade changes are not required
  • Collaborate with Client Success and clients to confirm promotional details and resolve discrepancies
  • Provide clear documentation and communication regarding actions taken and trade assumptions

What You’ll Bring to the Role

We are seeking a detail-oriented Trade Analyst with strong data management, analytical, and communication skills. You should excel at handling structured datasets, performing data validation, and partnering with cross-functional teams to ensure accurate trade and deduction outcomes.

Required skills include a Bachelor’s degree in Business, Finance, Analytics, or related field (or equivalent experience), excellent English-language fluency, and advanced Excel skills. You should have a proven ability to manage multiple workstreams, maintain high data quality, and translate data insights into actionable outcomes.

Soft skills such as clear, professional communication, proactive problem-solving, and collaboration with sales, client success, and finance teams are essential to success in this role.

Desirable Skills & Experience

Experience in trade promotion management, revenue management, or CPG operations; familiarity with POS, shipment, invoice, contract, and deduction data; experience supporting system implementations, data onboarding, or operational workflows. Prior exposure to ERP platforms and data integration projects is a plus.

Benefits & Perks

Promomash Inc. offers a collaborative, client-focused environment with opportunities for growth. We provide competitive compensation, comprehensive benefits, and a supportive work culture. Specific benefits are discussed during the interview process. If you’re excited to contribute to trade analytics and automated deduction clearing, apply to join our team.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Business Analyst – Digital Analytics & BI
  • WiTi
  • Santiago (Hybrid)
JavaScript Python Analytics Data Analysis

WiTi es una empresa chilena de tecnología con presencia en Chile, Uruguay y Colombia, dedicada a la innovación en software y soluciones tecnológicas.

Formamos parte de un equipo que presta servicios a clientes de primer nivel y trabajamos con un enfoque ágil para impulsar soluciones de analítica digital y BI en grandes retailers con operaciones en múltiples países de Latinoamérica.

El proyecto actual se centra en analizar el comportamiento de usuarios en canales digitales (Web y App) para optimizar la experiencia de compra de millones de clientes a través de e-commerce. El Business Analyst reporta al equipo de Digital Analytics & BI y colabora con equipos de desarrollo, marketing y producto para asegurar que las estrategias de medición sean correctas, que el tagging y los pixeles se implementen adecuadamente y que existan dashboards útiles y accionables.

Apply to this job from Get on Board.

Funciones y responsabilidades

  • Generar documentos de marcaje basados en estrategias de medición para equipos de desarrollo.
  • Gestionar y hacer seguimiento del tagging con equipos técnicos y proveedores externos cuando aplique.
  • Implementar tagging y píxeles usando Google Tag Manager (GTM) para Web y App.
  • Analizar datos para identificar quiebres en la experiencia y proponer mejoras concretas.
  • Crear dashboards y visualizaciones sobre el comportamiento de usuarios en Web y App para soportar la toma de decisiones.
  • Realizar seguimiento al embudo de compra en distintos e-commerce y monitorizar KPIs de conversión y retención.
  • Buscar proactivamente oportunidades de mejora y priorizar iniciativas en colaboración con stakeholders.
  • Realizar QA continuo del marcaje para garantizar datos precisos y confiables.

Requisitos Excluyentes

  • Al menos 1 año de experiencia en roles de Business Analyst o similares.
  • Experiencia en análisis de experiencia de usuario y medición de datos en entornos de retail y e-commerce.
  • Conocimiento intermedio de Google Analytics.
  • Conocimiento intermedio de Google Tag Manager.
  • Conocimiento intermedio de BigQuery.
  • Conocimiento intermedio de Looker.
  • Manejo de SQL a nivel intermedio.

Requisitos Deseables

  • Nivel de inglés avanzado.
  • Experiencia con JavaScript para implementación en Google Tag Manager.
  • Conocimientos de Python para soporte de scripts de análisis y automatización de datos.
  • Experiencia en creación de dashboards avanzados y storytelling de datos para stakeholders de negocio.
  • Capacidad para trabajar con datasets grandes y complejos, y optimizar consultas en BigQuery.
  • Comprensión de modelos de atribución.
  • Habilidad para comunicar hallazgos de negocio a distintas audiencias.
  • Experiencia en entornos ágiles y mentalidad orientada a la mejora continua.
  • Buenas habilidades de comunicación en español e inglés.
  • Experiencia en contextos multicanal (Web, App, Marketing).

Beneficios

En WiTi, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Cloud Data Engineer
  • WiTi
  • Lima (Hybrid)
Python SQL Virtualization Amazon Web Services

WiTi conecta talento tecnológico con proyectos de alto impacto en Latinoamérica. Nuestro equipo se enfoca en la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles, con énfasis en resolver problemas complejos a través de soluciones innovadoras.

Este rol forma parte de un equipo responsable de modernizar un ecosistema analítico legado hacia una arquitectura cloud en AWS, con foco en estandarización, performance y escalabilidad. El proyecto implica migrar y optimizar la lógica de bases de datos preexistentes hacia Amazon Redshift, contribuyendo a la automatización del proceso y garantizando la calidad, consistencia y rendimiento de los datos.

Exclusive to Get on Board.

Responsabilidades Clave

  • Analizar y comprender procesos analíticos existentes (en SQL u otros entornos heredados) para reestructurarlos sobre Amazon Redshift.
  • Convertir y optimizar lógica SQL hacia estándares compatibles con Redshift, aplicando buenas prácticas de modelado y rendimiento.
  • Diseñar y documentar enfoques repetibles para la migración de consultas y estructuras de datos (catálogo de reglas, patrones de transformación).
  • Colaborar en tareas de automatización de migraciones (scripts en Python, templates SQL, validaciones automáticas, pipelines CI/CD).
  • Mantener y mejorar procesos ETL/ELT en AWS, apoyándose en servicios como Glue, Lambda, Step Functions y S3.
  • Validar resultados de conversión mediante controles de reconciliación y pruebas de calidad de datos.
  • Documentar decisiones técnicas, reglas de conversión y excepciones para asegurar trazabilidad y mantenibilidad del proceso.

Requisitos Excluyentes

  • 3+ años de experiencia como Ingeniero de Datos o rol equivalente.
  • Dominio avanzado de SQL estándar (uniones complejas, funciones de ventana, CTE, tuning, lectura de planes de ejecución).
  • Experiencia práctica con Amazon Redshift (particionamiento, distribución, optimización de consultas y almacenamiento).
  • Conocimientos sólidos de procesos ETL/ELT en entornos cloud, idealmente AWS. Experiencia en proyectos orientados a migración o modernización de plataformas de datos.
  • Conocimientos en Python para scripting y automatización de validaciones.
  • Nivel intermedio o superior de inglés técnico.

Deseables

  • Experiencia con DataOps, manejo de pipelines (Airflow, Step Functions o similares).
  • Familiaridad con herramientas de Infraestructura como Código (Terraform, CloudFormation).
  • Experiencia en gobierno de datos, nomenclaturas y validaciones automáticas de calidad.
  • Capacidad de documentar y estandarizar procesos en contextos corporativos.

Beneficios

En WiTi fomentamos una cultura de aprendizaje continuo, colaboración y crecimiento profesional. Entre los beneficios se pueden incluir:

  • Plan de carrera y oportunidades de desarrollo profesional.
  • Acceso a certificaciones y formación continua.
  • Cursos de idiomas y acceso a biblioteca digital para tu desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer (Híbrido) – Santiago
  • Factor IT
  • Santiago (Hybrid)
Python Data Science Back-end Data Engineer
FactorIT es una empresa líder en soluciones de Data & Analytics, Transformación Digital e IA, con presencia en 8 países de Latinoamérica. Buscamos sumar a nuestro equipo a un Data Engineer para trabajar en proyectos de alto impacto en clientes corporativos, especialmente en el sector financiero y en iniciativas regionales de transformación tecnológica. El rol participará en la definición y ejecución de soluciones modernas de datos, automatización e inteligencia artificial, con enfoque en la entrega de valor real para los negocios y la mejora de procesos a través de pipelines escalables y soluciones basadas en IA.
En FactorIT fomentamos un entorno de aprendizaje continuo, colaboración y uso de tecnologías de vanguardia. El/la candidata trabajará en un entorno híbrido desde Santiago, colaborando con equipos multidisciplinarios para impulsar la gobernanza de datos, la calidad y la innovación tecnológica en la región.

Apply to this posting directly on Get on Board.

Qué harás

  • Diseñar, desarrollar y mantener pipelines de datos escalables en entornos modernos, asegurando rendimiento, fiabilidad y trazabilidad.
  • Implementar soluciones en Databricks para procesamiento y transformación de datos, optimizando cargas y costos.
  • Desarrollar integraciones mediante APIs para consumo y exposición de servicios, facilitando el acceso a datos para aplicaciones y usuarios.
  • Automatizar flujos de trabajo y procesos de datos, idealmente utilizando herramientas como n8n, para mejorar la eficiencia operativa.
  • Participar en la implementación de soluciones basadas en IA (OpenAI, Gemini) para casos de negocio y automatización inteligente.
  • Colaborar en iniciativas de arquitectura de datos, diseño de modelos y buenas prácticas de ingeniería de datos.
  • Apoyar en la gestión, calidad y gobierno de datos; experiencia deseable con herramientas de gobierno como Purview.
  • Trabajar de forma colaborativa con equipos técnicos y de negocio para garantizar alineación con objetivos estratégicos.

Requisitos y perfil

Buscamos un perfil con experiencia en ingeniería de datos y/o arquitectura de datos, acostumbrado a trabajar en proyectos complejos y con capacidad de aprender de forma continua. Requisitos clave:
  • Dominio de Python para procesamiento y manipulación de datos.
  • Experiencia práctica con Databricks y entornos de nube, con enfoque en pipelines y transformación de datos.
  • Experiencia en integración y consumo de APIs para exposición de servicios y datos.
  • Conocimientos en automatización de flujos de trabajo (idealmente con n8n).
  • Interés o experiencia en el uso de modelos y servicios de IA (OpenAI, Gemini u otros).
  • Conocimientos en gobierno de datos (opcional: Purview u otras herramientas).
  • Habilidades analíticas, proactividad, autonomía y capacidad de aprendizaje continuo en tecnologías emergentes.
  • Buenas habilidades de comunicación y trabajo en equipo, orientación a resultados y capacidad para colaborar en contextos multidisciplinarios.

Deseables

Se valorará experiencia previa en entornos financieros, conocimiento de herramientas de orquestación y experiencia trabajando con datos estructurados y no estructurados, así como experiencia en proyectos de IA aplicados a negocio y en conformidad con marcos de gobernanza de datos.

Qué ofrecemos

Modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre vida profesional y personal. Ambiente colaborativo y dinámico con oportunidades de crecimiento y aprendizaje continuo. Equipo y proyectos innovadores de datos e IA, exposición a tecnologías modernas y clientes de alto nivel. Paquete salarial competitivo acorde a experiencia, cultura inclusiva, diversidad y trabajo en equipo. Participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2200 - 2800 Tiempo completo
Ingeniero de Datos
  • Interfell
Python SQL NoSQL Big Data

Interfell conecta empresas con el talento IT de LATAM, gestionando procesos de Staffing y Recruiting para impulsar el trabajo remoto y la transformación digital. Nuestro objetivo es potenciar la inclusión y el equilibrio vida-trabajo, brindando una experiencia de contratación integral y de alta calidad. Esta posición forma parte de un equipo enfocado en generar oportunidades de ventas y vínculos con potenciales clientes, contribuyendo al crecimiento de nuestras operaciones en la región.
Buscamos Ingeniero de Datos para un proyecto a tiempo determinado en el sector bancario, te unirás al equipo IT y ayudarás a crear data pipelines

-Tiempo del proyecto: 3 meses

-Remuneración por hora: 18$ - 40 horas semanales (8 horas diarias)

-Jornada: Lunes a Viernes

-Se trabaja por objetivos

Apply to this job opportunity at getonbrd.com.

Job functions

Funciones:

- Diseño, construcción y mantenimiento de pipelines de datos confiables y escalables a demanda.

-Optimización de procesos de almacenamiento y procesamiento de grandes volúmenes de datos.

Qualifications and requirements

Habilidades requeridas:

+3 años de experiencia como Ingeniero de datos

◦ Lenguajes: Python y SQL (Avanzado).

◦ Bases de Datos: SQL y NoSQL.

◦ Data Engineering: Desarrollo de pipelines ETL/ELT e integración de fuentes (APIs, sistemas internos/externos).

◦ Ecosistema: Big Data.

Desirable skills

◦ Nube: AWS, Azure o GCP (Deseable).

Conditions

Flexibilidad y autonomía

Pago USD

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero/a de Procesos Data Governance
  • BC Tecnología
  • Santiago (Hybrid)
Jira Cybersecurity Bizagi Modeler Continual improvement process
En BC Tecnología, somos una consultora de TI con un enfoque en soluciones y equipos ágiles para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Participarás en proyectos de alto impacto para clientes de servicios financieros, seguros, retail y gobierno, ayudando a transformar datos en valor tangible. Liderarás iniciativas de gobernanza de datos (Data Governance), asegurando trazabilidad, cumplimiento normativo y calidad de la información a lo largo del ciclo de vida del dato (E2E): desde origen e ingesta, pasando por transformación y almacenamiento, hasta consumo y eliminación. Colaborarás con equipos multidisciplinarios para estandarizar procesos, definir políticas y controles, y facilitar la adopción de mejores prácticas.

Job source: getonbrd.com.

Funciones y responsabilidades

  • Levantar y modelar el ciclo de vida del dato E2E (origen, ingesta, transformación, almacenamiento, consumo y eliminación).
  • Identificar, clasificar y registrar activos de datos (datasets, métricas, reportes, integraciones, data products).
  • Levantar procesos AS-IS y diseñar TO-BE para BI y Datos, alineados a estándares de gobierno de datos.
  • Definir y mantener artefactos de gobierno (RACI, SLA/OLA, estándares, políticas y controles).
  • Documentar y coordinar procesos de acceso y seguridad (RBAC, RLS, segregación de funciones, auditoría, retención).
  • Facilitar workshops y gestionar la adopción de prácticas y procesos de Data Governance en proyectos.
  • Colaborar con Compliance y Seguridad para garantizar cumplimiento de la Ley de Protección de Datos y continuidad operativa.

Requisitos y habilidades

Buscamos un profesional con al menos 4 años de experiencia en entornos corporativos y mínimo 2 años en roles similares de Data Governance o Gestión de Datos. Requisitos deseables incluyen formación en BPMN, gobernanza de datos, Seguridad/Privacidad o Mejora Continua.
Conocimientos y herramientas: Confluence/SharePoint para documentación; Jira (nivel intermedio); Visio/Bizagi/Miro para diagramación; experiencia con catálogos de datos, metadatos o gobernanza de datos. Enfoque en cumplimiento de la Ley de Protección de Datos y continuidad operativa. Capacidad para trabajar en entornos dinámicos, orientar soluciones a negocio y comunicar eficazmente con stakeholders de tecnología y negocio. Habilidades de facilitación de talleres, pensamiento analítico, atención al detalle y enfoque en calidad de información.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional mediante la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional. Ofrecemos oportunidades de formación continua, integración de equipos y un entorno que impulsa tu desarrollo en gobernanza de datos y cumplimiento normativo.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Governance Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Excel SQL Data Science English
En BC Tecnología diseñamos soluciones y gestionamos servicios de TI para clientes en sectores financieros, seguros, retail y gobierno. Nuestro equipo de Data & Analytics impulsa proyectos de gobierno de datos en un entorno de consultoría orientado a la entrega ágil y a la mejora continua. El rol reporta a la práctica de Data Governance y se integrará a iniciativas de cumplimiento normativo y protección de datos, colaborando estrechamente con business y tecnología para garantizar datos confiables, trazables y seguros.

This posting is original from the Get on Board platform.

Principales responsabilidades

  • Definir e implementar el modelo de Gobierno de Datos (Data Owner, Steward, Custodian, RACI, estándares y procesos).
  • Administrar el catálogo de datos y glosario, asegurando su uso y adopción.
  • Diseñar y operar controles de Calidad de Datos (Data Quality) y monitorear su cumplimiento.
  • Documentar y asegurar el linaje y trazabilidad de datos (end-to-end).
  • Gestionar incidentes de datos (registro, análisis de causa raíz, seguimiento y cierre).
  • Participar en evaluaciones de impacto en privacidad (DPIA/EIPD).
  • Incorporar prácticas de privacidad por diseño en iniciativas de datos.
  • Apoyar la implementación del plan de adecuación a la Ley de Protección de Datos.
  • Coordinar con terceros y asegurar cumplimiento en el tratamiento de datos.

Requisitos y perfil buscado

Buscamos un/a profesional con pensamiento estructurado y orientación a la calidad, capaz de comunicar efectivamente entre negocio y tecnología y gestionar stakeholders con influencia sin autoridad. Debe tener experiencia sólida en gobierno de datos y un enfoque proactivo para mitigación de riesgos. Se valorarán prácticas de privacidad por diseño y experiencia en entornos regulados. Idioma técnico en inglés recomendado para lectura de documentación y herramientas.
Experiencia: mínimo 5 años en roles relacionados y al menos 2 años en Data Governance o similares. Conocimientos técnicos: SQL (intermedio/avanzado); Excel o Google Sheets (intermedio); herramientas de catálogo y linaje (deseable: Collibra, Alation, Informatica, Purview); Data Quality/observabilidad (deseable); Jira/Confluence (deseable); inglés técnico.

Conocimientos y habilidades deseables

Experiencia con marcos de gobernanza de datos, implementación de controles de calidad de datos y conocimiento de normativas de protección de datos. Habilidades de gestión de stakeholders, capacidad de análisis de impacto y pensamiento crítico para priorizar iniciativas.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
DBA
  • Factor IT
  • Bogotá (In-office)
Oracle Database Administrator Infrastructure Communication

FactorIT, líder en tecnología y soluciones de datos con presencia en 8 países de Latinoamérica, busca fortalecer su equipo con un DBA para trabajar en proyectos estratégicos del área de datos y bases de datos de clientes en la región. El equipo se dedica a garantizar la disponibilidad, rendimiento y escalabilidad de entornos Oracle, con foco en grandes empresas del sector financiero. Participarás en iniciativas de transformación digital, continuidad de negocio y optimización de operaciones de datos, aportando soluciones que generen valor y mejoren los procesos críticos del negocio.

Apply exclusively at getonbrd.com.

Funciones

  • Administrar bases de datos Oracle garantizando disponibilidad, rendimiento y seguridad.
  • Implementar y gestionar RAC (Real Application Clusters) y Data Guard para alta disponibilidad y recuperación ante desastres.
  • Monitoreo proactivo, tuning de rendimiento y optimización de consultas.
  • Gestión de respaldos, pruebas de recuperación y planes de continuidad.
  • Planificación de capacidad, migraciones y upgrades de Oracle en entornos complejos.
  • Colaborar con equipos de desarrollo y operaciones para asegurar prácticas óptimas de gestión de datos.
  • Documentación detallada de entornos, procedimientos y estándares operativos.

Requisitos y experiencia

Buscamos profesionales con alta experiencia en administración de bases de datos Oracle, certificados y en constante actualización técnica. Requisitos mínimos: OCP – Database Administrator vigente; certificación RAC 11g & Grid Infrastructure; experiencia comprobable en Data Guard (DRP); experiencia en monitoreo e interoperabilidad entre sistemas. Capacidad para tomar decisiones bajo presión y gestionar prioridades en entornos críticos. Disponibilidad para trabajar de forma presencial en Bogotá, Colombia.

Competencias clave: orientación a resultados, capacidad de análisis, proactividad, enfoque en soluciones, trabajo en equipo y buenas habilidades de comunicación. Se valorarán experiencia en entornos financieros y capacidad para trabajar con equipos multidisciplinarios en proyectos regionales.

Deseables

Certificaciones adicionales en Oracle o tecnologías relacionadas, experiencia en entornos de alta disponibilidad, habilidades de scripting (PL/SQL, Shell), conocimientos en automatización y experiencia en migraciones a entornos en la nube. Se valorará orientación al negocio, capacidad de priorización y manejo de situaciones de alta presión, con enfoque en la entrega de resultados y la mejora continua.

Beneficios

Ofrecemos una modalidad de trabajo presencial en Bogotá

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Business Analyst (Hibtrido)
  • BC Tecnología
  • Santiago (Hybrid)
Business Analyst Agile Methodologies Communication User Stories
BC Tecnología es una consultora de TI con enfoque en soluciones para clientes de servicios financieros, seguros, retail y gobierno. El proyecto se centra en realizar levantamiento, análisis y documentación de requerimientos, identificar oportunidades de mejora en procesos de negocio y definir soluciones junto a equipos técnicos. El Business Analyst trabajará en un entorno ágil, con continuidad en proyectos, para alinear objetivos de negocio con entregables tecnológicos, gestionando stakeholders y priorizando iniciativas por impacto y valor para el negocio.

Apply to this job from Get on Board.

Funciones y responsabilidades

  • Levantar, analizar y documentar requerimientos funcionales y no funcionales.
  • Identificar oportunidades de mejora en procesos de negocio y proponer soluciones.
  • Elaborar casos de uso, historias de usuario y documentación funcional clara y precisa.
  • Participar en la definición de soluciones junto a equipos técnicos y de negocio.
  • Priorizar iniciativas según su impacto y valor para el negocio.
  • Dar seguimiento a proyectos y validar entregables con los stakeholders.
  • Coordinar comunicaciones entre áreas para asegurar alineación y cumplimiento de objetivos.

Requisitos y perfil buscado

Buscamos un Business Analyst con fuerte orientación al negocio y capacidad para conectar necesidades estratégicas con soluciones tecnológicas. Se valorará experiencia en levantamiento, análisis y documentación de requerimientos, así como en la definición de casos de uso y user stories. Se requiere habilidad para identificar mejoras de procesos, gestionar prioridades y colaborar estrechamente con equipos multidisciplinarios en un entorno de proyecto. Se espera proactividad, buenas capacidades de comunicación y manejo de stakeholders, con enfoque en entrega de valor y resultados medibles.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 1900 Tiempo completo
Analista Digital
  • TCIT
  • Santiago (Hybrid)
Analytics Agile Marketing Power BI
En TCIT lideramos proyectos de transformación digital para organizaciones en sectores diversos. Nuestro enfoque es entregar soluciones de software en modalidad cloud con alto impacto social, trabajando con clientes locales e internacionales (incluyendo alianzas en Canadá). El equipo se nutre de un portafolio variado que va desde sistemas de gestión hasta soluciones de monitoreo y analítica, siempre apoyado en metodologías ágiles y tecnologías de última generación.

This job is published by getonbrd.com.

Funciones

El Analista Digital será responsable de que el dato digital sea útil, confiable, accionable y escalable,
conectando los activos digitales y los ecosistemas con el Data Lake corporativo y habilitando
decisiones reales de negocio.
Sus principales tareas incluyen:
  • Definir, mantener y documentar el estándar de medición digital para los activos digitales
    bajo nuestro control. Asegurar que cada activo cuente con: eventos clave definidos, embudos medibles, KPIs de uso, conversión, fricción y eficiencia. Validar tracking antes del go-live como condición de cierre.
  • Analizar: uso real, abandono, fricciones, comportamientos críticos. Identificar oportunidades de: mejora UX, simplificación de journeys, aumento de adopción, deflectación digital. Proponer mejoras priorizadas y justificadas con evidencia. La analítica empuja cambios, no solo los observa.
  • Asegurar consistencia y calidad de: eventos, nomenclaturas, métricas. Detectar y corregir: errores de tracking, brechas de medición. Velar porque el dato digital sea trazable, confiable y reutilizable.
  • Diseñar, documentar y mantener el Data Layer estándar para: App, Web, Ecosistemas. Definir semántica común de eventos y naming estándar. Coordinar con el equipo de Datos corporativo: ingesta al Data Lake, validación de estructuras y disponibilidad para analítica avanzada.

Descripción

Buscamos un profesional con capacidad de traducir complejos conjuntos de datos en insights de negocio que impulsen decisiones de negocio. El/la candidato/a ideal trabajará colaborativamente con equipos de negocio y tecnología para garantizar la calidad, disponibilidad y utilidad del dato a lo largo de toda la empresa, apoyando iniciativas de transformación digital y optimizando procesos basados en datos.
Requisitos:
  • Título profesional en Ingeniería Comercial, Civil Industrial, Tecnología de la Información, Diseño, Marketing Digital, Ingeniería Comercial o carrera afín.
  • +5 años Experiencia en diseño, implementación y explotación de ecosistemas de medición en plataformas digitales.
  • Familiaridad con estándares de diseño centrado en el cliente y metodologías ágiles.
  • Conocimientos avanzados de Google Analytics, Google Tag Manager y herramientas de visualización de datos (e.g., Power BI, Data Studio).

Deseables

Se valoran experiencia previa en seguros, finanzas, Banca. Dominio de herramientas de ETL/ELT. Habilidades de comunicación para traducir datos a insights, y capacidad de trabajar en entornos dinámicos con equipos multidisciplinarios. Se aprecia enfoque analítico, pensamiento crítico, proactividad y buena gestión del tiempo.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (Hybrid)
MySQL PostgreSQL NoSQL MongoDB

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Applications: getonbrd.com.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

Beneficios

En Zerviz nos preocupamos de que juntos podemos trabajar mejor y feliz, por eso contamos con beneficios acorde a las expectativas de nuestros colaboradores:

  • Seguro complementario de salud gratuito para el colaborador.
  • Aguinaldos (Fiestas Patrias y Navidad)
  • Día de cumpleaños libre
  • Permiso sin goce por mudanza.
  • Bonos de Nacimiento y Matrimonio
  • Convenios con Caja Los Andes y Mundo Achs
  • Snack y Frutas en la oficina.
  • Actividades de cultura organizacional
  • Beca de estudios para colaboradores
  • Programas de capacitación y formación continua.

Esto y muchos otros beneficios que podrás descubrir y acceder.

Wellness program Zerviz Technologies offers or subsidies mental and/or physical health activities.
Partially remote You can work from your home some days a week.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Dental insurance Zerviz Technologies pays or copays dental insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Zerviz Technologies offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer (Pyspark, AWS)
  • Improving South America
Java Python MySQL SQL
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil. El/la BI Developer trabajará en proyectos orientados a inteligencia de negocio, visualización de datos y creación de dashboards impactantes que faciliten la toma de decisiones. Colaborará con equipos multifuncionales para entregar soluciones escalables y de alto valor para clientes internacionales, dentro de un entorno 100% remoto.
La empresa promueve una cultura de trabajo excepcional basada en el trabajo en equipo, la excelencia y la diversión, con enfoque en crecimiento personal y recompensas compartidas. Al integrarse, el/la candidato/a formará parte de una comunidad que prioriza la comunicación abierta y relaciones laborales sólidas a largo plazo, respaldada por una estructura de desarrollo profesional y aprendizaje continuo.

Job opportunity on getonbrd.com.

Responsabilidades del puesto

En Improving South America buscamo un/a Senior Data Engineer para diseñar y operar soluciones de datos de alta disponibilidad a escala global, trabajando con pipelines batch y streaming que procesan grandes volúmenes de información. El rol requiere experiencia construyendo pipelines robustos, trabajando con Kafka, PySpark y data warehouses en AWS, además de fuerte dominio de SQL y modelado de datos.

Responsabilidades del rol:

  • Diseñar y operar pipelines de datos batch y streaming.
  • Procesar grandes volúmenes de datos (billones de eventos diarios y datasets multi-terabyte).
  • Construir integraciones entre MySQL y Redshift.
  • Diseñar modelos de datos y optimizar consultas SQL.
  • Implementar estrategias de CDC, cargas incrementales y full loads.
  • Integrar datos mediante APIs internas y de terceros.
  • Diagnosticar fallas en pipelines, problemas de latencia y calidad de datos.
  • Colaborar en decisiones de arquitectura de datos.

Requerimientos del cargo

  • 7+ años de experiencia en Data Engineering.
  • Inglés intermedio/avanzado (B2/C1) para comunicación técnica.
  • Experiencia sólida con Python.
  • Experiencia con PySpark.
  • Experiencia trabajando con Kafka.
  • Experiencia con Redshift u otro data warehouse moderno.
  • Experiencia integrando MySQL → Redshift.
  • Dominio avanzado de SQL (modelado, optimización y queries complejas).
  • Experiencia en AWS y servicios de datos en la nube.
  • Experiencia diseñando pipelines ETL/ELT batch y streaming.
  • Experiencia con Glue, Step Functions o arquitecturas serverless en AWS.
  • Experiencia trabajando con herramientas de desarrollo asistidas por IA (ej. Cursor).
  • Experiencia en entornos de alto volumen de datos.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Analista de Datos BI Semi Senior
  • Coderslab.io
  • Guayaquil (In-office)
Python Data Analysis Excel SQL

En Coderslab nos encontramos en la búsqueda de un Analista de Datos BI Semi Senior, encargado de apoyar en la construcción, mantenimiento y mejora de reportes y dashboards de Business Intelligence, asegurando calidad, consistencia y confiabilidad de la información utilizada para decisiones operativas y ejecutar análisis estructurados bajo lineamientos definidos, con autonomía creciente en tareas técnicas recurrentes. Asi como tambien tendrá participación en la consulta y preparación básica de datos para visualización, sin responsabilidad sobre arquitectura de datos, definición de KPIs estratégicos ni liderazgo de modelado complejo o pipelines.

© Get on Board.

Funciones del cargo

  • Construcción y mantenimiento de dashboards en Power BI y/o Tableau.
  • Desarrollo de visualizaciones claras, funcionales y orientadas al seguimiento operativo.
  • Aplicación de buenas prácticas básicas de modelado para consumo analítico.
  • Realización de ajustes y mejoras menores sobre reportes y dashboards existentes.
  • Desarrollo de consultas SQL para extracción, validación y análisis de información.
  • Consulta de datos desde bases Oracle como fuente de origen.
  • Uso básico de PL/SQL para lectura o ajustes simples sobre lógica existente, cuando aplique.
  • Preparación básica de datasets para visualización.
  • Validación de consistencia y calidad de datos.
  • Documentación simple de fuentes y transformaciones realizadas.
  • Generación de reportes operativos periódicos.
  • Identificación de variaciones básicas en indicadores.
  • Atención a requerimientos de ajustes menores en dashboards y reportes.
  • Apoyo en análisis recurrentes bajo lineamientos previamente definidos.
  • Participación en células ágiles o esquemas colaborativos de trabajo.
  • Coordinación con equipos técnicos o áreas fuente para entender origen y estructura de datos.
  • Recepción y aplicación de feedback técnico y funcional.
  • Escalamiento oportuno de incidencias o dependencias técnicas

Requerimientos del cargo

2 o más años de experiencia en análisis de datos o Business Intelligence.
Experiencia en construcción y mantenimiento de dashboards.
Experiencia en generación de reportes operativos periódicos.
Experiencia realizando consultas SQL para extracción, validación y análisis de información.
Experiencia consultando información desde bases Oracle como fuente de origen.
Experiencia en validación de consistencia y calidad de datos.
Experiencia atendiendo ajustes menores sobre dashboards y reportes existentes.
Experiencia trabajando con requerimientos definidos y bajo lineamientos técnicos o funcionales.
Experiencia coordinando con equipos técnicos o áreas fuente para entender origen y estructura de datos.
Profesión requerida (Incluir las certificaciones/ Licencias/ Registros): Ingeniería de sistemas, ingeniería electrónica y/o carreras afines

Habilidades o conocimientos obligatorios:

Manejo de Power BI / Tableau para construcción y mantenimiento de dashboards.
SQL intermedio.
Capacidad para trabajar con joins, filtros, agregaciones y validación de datos.
Excel avanzado.
Capacidad para construir dashboards completos cuando el requerimiento está claramente definido.
Capacidad para realizar consultas y validaciones de datos sobre fuentes existentes.
Capacidad para preparar datasets básicos para visualización.
Capacidad para documentar de manera simple fuentes y transformaciones realizadas.
Capacidad para identificar variaciones básicas en indicadores.
Capacidad para ejecutar tareas definidas con supervisión periódica.
Capacidad para escalar decisiones técnicas complejas, ambigüedades de diseño o necesidades de soporte especializado.
Capacidad para seguir lineamientos técnicos y funcionales.
Pensamiento lógico y estructurado.
Atención al detalle.
Buenas habilidades de comunicación.
Organización y seguimiento.
Disposición para aprendizaje técnico continuo.

Tecnologias que debe manejar

Power BI / Tableau
SQL
Oracle básico
Excel

Opcionales

  • Habilidades y/o conocimientos deseables:
  • Conocimientos básicos de PL/SQL.
  • Conocimientos básicos de Python para scripts simples, automatizaciones ligeras o validaciones puntuales de datos. Conocimientos básicos de modelado para consumo analítico.
  • Experiencia participando en células ágiles o esquemas colaborativos de trabajo.

Condiciones

Modalidad de contratación:03 meses con posibilidad de extension

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer
  • Dynamic Devs
  • Santiago (Hybrid)
Python Git SQL Virtualization

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Data Engineer con experiencia en procesamiento de datos a gran escala.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

✅ Diseñar, desarrollar y optimizar pipelines de datos utilizando PySpark, AWS EMR y Glue.
✅ Procesar grandes volúmenes de datos en entornos distribuidos y escalables.
✅ Implementar y mantener soluciones de integración y transformación de datos en la nube ☁️.
✅ Monitorear y optimizar el rendimiento de las soluciones de datos.
✅ Garantizar la seguridad y gobernanza de los datos en el ecosistema AWS.
✅ Integrar datos desde múltiples fuentes y asegurar su correcta transformación y almacenamiento.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años en Databricks o AWS EMR.
🛠️ Conocimientos sólidos en SQL y modelado de datos.
⚙️Conocimientos en otras herramientas de AWS como: S3, Redshift, Athena, Glue o Lambda.
🐍 Desarrollo en Python aplicado a procesamiento de datos.
📊 Conocimientos en frameworks de Big Data y optimización de rendimiento en entornos distribuidos.
🔗 Experiencia en Git.
📍 Disponibilidad para asistir 2 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago - Chile (modalidad híbrida, requisito excluyente).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3200 Tiempo completo
Data Governance Consultant
  • Artefact LatAm
  • Santiago (Hybrid)
Excel SQL NoSQL Virtualization

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Data Governance Consultant es un profesional altamente especializado que colabora estrechamente con los clientes para desarrollar e implementar proyectos estratégicos de Data Governance u otros. Este rol se enfoca en actuar como un arquitecto de la confianza dentro de los ecosistemas de información, adaptando tecnología y la aplicación de las últimas tendencias, con un profundo entendimiento de los negocios. Como consultor, trabajará en estrecha colaboración con equipos multidisciplinarios para ofrecer soluciones que generen un impacto significativo y añadan valor a los clientes.

Apply exclusively at getonbrd.com.

Funciones del cargo

  • Realizar investigaciones exhaustivas y análisis de información relevante para el proyecto.
  • Desarrollar diagnósticos y proponer soluciones adaptadas a las necesidades específicas de cada cliente, utilizando un enfoque analítico y estratégico.
  • Desarrollar y mantener el roadmap de Data Governance, definiendo la propiedad de los datos (data ownership), los roles de custodia (stewardship) y los modelos operativos.
  • Establecer dimensiones de calidad (exactitud, completitud, consistencia) e implementar sistemas de monitoreo y alertas automatizadas.
  • Definir y hacer cumplir las políticas de retención de datos, privacidad (GDPR, LGPD o normativas locales) y seguridad, trabajando de la mano con los equipos especializados en la materia.
  • Crear entregables innovadores y orientados a resultados, con un enfoque en la transformación digital.
  • Aplicar rápidamente el aprendizaje adquirido de diversas industrias y herramientas para abordar los desafíos de cada cliente.
  • Presentar de manera efectiva los hallazgos y resultados del proyecto, adaptándose a las necesidades de los stakeholders del cliente.
  • Contribuir a la elaboración de propuestas para potenciales clientes, mediante un análisis detallado de la industria y la identificación de soluciones adecuadas.
  • Construir y mantener relaciones sólidas con los clientes, actuando como un socio estratégico en su camino hacia el éxito.

Requerimientos del cargo

  • Titulación en Ingeniería Civil Industrial, Ingeniería en sistemas, Ciencias de la Computación, Ingeniería Industrial o áreas afines.
  • Experiencia laboral mínima de 3 años en consultoría, roles de gestión de proyectos o gobierno de datos.
  • Experiencia de al menos 1 año en materias de Data Governance.
  • Dominio avanzado de herramientas de Microsoft Office (Excel, PowerPoint, Word).
  • Pensamiento Analítico: Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.
  • Conocimiento profundo de las regulaciones de privacidad de datos y cómo traducirlas en requisitos técnicos.
  • Conocimiento profundo de diversas herramientas y soluciones digitales. Además de una comprensión sólida de SQL, NoSQL y entornos de nube (AWS, Azure o GCP).

Sumas puntos extras si...

  • Se valoran certificaciones asociadas al cargo
  • Deseable experiencia en programación en Python y uso de herramientas de visualización como PowerBI o Tableau.
  • Conocimiento o nociones de Data Science.

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Scientist / Machine Learning Engineer
  • CyD Tecnología
  • Santiago (Hybrid)
Python Agile SQL Erlang
En CyD Tecnología desarrollamos plataformas web a medida que transforman procesos complejos en soluciones simples y eficientes. Buscamos un Data Scientist / Machine Learning Engineer para liderar la construcción de modelos predictivos orientados a la planificación de ventas y abastecimiento (S&OP). El rol implica procesar y analizar datos desde BigQuery, desarrollar modelos multivariables en Python y generar outputs analíticos para la toma de decisiones. Participarás en la construcción, prueba y ajuste de modelos de machine learning, documentar resultados y generar recomendaciones basadas en datos para optimizar procesos comerciales y de la cadena de suministro en entornos de Google Cloud Platform. Colaborarás estrechamente con equipos de ventas, operaciones y producto, dentro de un entorno ágil para entregar soluciones escalables y orientadas a impacto.

Apply directly on Get on Board.

Funciones clave

  • Procesar y transformar grandes volúmenes de datos en BigQuery para soportar modelos predictivos y dashboards operativos.
  • Desarrollar, evaluar y mantener modelos multivariables (regresión, clasificación, series temporales) en Python, con énfasis en S&OP y optimización de inventarios.
  • Realizar análisis de drivers de negocio y extracción de insights accionables para mejorar ventas y planificación de la cadena de suministro.
  • Colaborar con equipos de producto, ventas y logística para convertir resultados en recomendaciones concretas y acciones operativas.
  • Documentar modelos, parámetros, supuestos y resultados; generar reportes y presentaciones para stakeholders.
  • Implementar prácticas de ML Ops, monitoreo de modelos y actualización continua en Google Cloud Platform.

Requisitos y perfil deseado

Buscamos un perfil con solides técnicas en ciencia de datos e ingeniería de ML, capaz de traducir datos en decisiones estratégicas para ventas y abastecimiento. Debes trabajar de forma autónoma, comunicar claramente resultados y colaborar en un entorno ágil. Se valorará experiencia en S&OP, análisis de cadenas de suministro y stack de Google Cloud Platform.
Competencias técnicas:
  • Python (pandas, NumPy, scikit-learn, statsmodels) y SQL avanzado.
  • Experiencia con BigQuery y el ecosistema GCP (BigQuery ML, Dataflow/Beam, Cloud Storage).
  • Conocimiento en técnicas de ML para series temporales, forecasting, regresión y clasificación.
  • Habilidad para explicar resultados complejos a públicos no técnicos y generar recomendaciones accionables.
  • Experiencia con herramientas de visualización y storytelling de datos.
  • Metodologías ágiles y capacidad de trabajar en equipo multifuncional.

Competencias académicas:

  • Ingeniero Civil Informático, Industrial o Afín.

Deseables

Se valorará experiencia específica en S&OP, optimización de inventarios y operaciones de compra/planning. Conocimiento de ML Ops, Docker/Kubernetes, TensorFlow o PyTorch y familiaridad con estructuras de datos ERP.

Beneficios

Ofrecemos seguro complementario de salud y jornada híbrida de trabajo. En CyD Tecnología promovemos un entorno de trabajo flexible, oportunidades de desarrollo profesional y proyectos con impacto real en la transformación digital de clientes. Contamos con una cultura ágil, equipo colaborativo y horarios compatibles con productividad. Únete para crecer junto a un equipo líder en soluciones web y móviles a medida.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer (Semi Senior) GCP, Bigquery, Python
  • Continuum
Python Redis PostgreSQL REST API

Continuum es un equipo de rebeldes con mentalidad de experimentación y hambre de romper paradigmas. Ayudamos a empresas líderes a sacudir el status quo y a tomarse en serio la innovación, la tecnología y la agilidad. Diseñamos y desarrollamos productos digitales y servicios innovadores centrados en las personas. Tenemos oficinas en Santiago y Lima, pero adoptamos un modelo distribuido; buena parte del equipo vive en otras ciudades o países.

ROL
Como Data Engineer [Semi-Senior] trabajarás en dupla directa con un Back-end Engineer para construir y habilitar flujos de datos que soporten sistemas de seguridad, privacidad de datos y plataformas analíticas — haciendo que la información esté disponible, limpia, segura y estructurada para reportería, análisis y cumplimiento regulatorio en data privacy y gestión de derechos de datos.

Duración: 6 meses [con posible extensión a 1 año o más]
Rango referencial mensual: 2600 a 3600 USD

Opportunity published on Get on Board.

Qué harás

  • Diseñar, construir y mantener pipelines de datos confiables y escalables sobre GCP (Dataflow, Pub/Sub, BigQuery, Cloud Storage).
  • Modelar y transformar datos asegurando calidad, nomenclatura y catalogación.
  • Construir y exponer APIs y microservicios para ingesta, orquestación y consumo de datos, coordinado con el Back-end Engineer del equipo.
  • Aplicar controles de gobernanza, compliance y seguridad: Policy Tags, Row-level Security, IAM, Cloud DLP para detección y enmascarado de PII.
  • Optimizar performance de queries y costos de infraestructura (FinOps) sobre BigQuery y Cloud SQL.
  • Monitorear la disponibilidad y resiliencia de pipelines, gestionando incidentes y asegurando SLAs.
  • Colaborar en pipelines de CI/CD con Terraform, GitLab CI / Cloud Build, garantizando desplieues automatizados y seguros.
  • Democratizar el acceso a datos habilitando flujos hacia plataformas analíticas y sistemas corporativos del cliente.

Conocimientos y experiencia clave (must-have)

Data Engineer Semi Senior con experiencia en GCP y construcción de pipelines de datos en producción. Capaz de trabajar con autonomía a partir de objetivos funcionales, diseñando la solución técnica necesaria. Con habilidad para coordinarse con un equipo de backend y con stakeholders no técnicos del cliente.


Cloud & Datos

  • GCP: BigQuery, Dataflow / Apache Beam, Pub/Sub, Cloud Storage, Cloud Run
  • SQL avanzado (BigQuery SQL, optimización de queries)
  • Python para pipelines, automatización y procesamiento de datos
  • Arquitectura Medallion (Bronze / Silver / Gold)


DevOps & Infraestructura

  • GitLab CI / Cloud Build / GitHub Actions

Gobernanza & Seguridad

  • IAM / Policy Tags / Row-level Security
  • OAuth2 / OIDC
  • Secret Manager
  • Cumplimiento GDPR / LGPD o normativas equivalentes

Integración con Backend

  • REST APIs
  • Cloud SQL (PostgreSQL)
  • Memorystore (Redis) para cache
  • Pub/Sub para arquitecturas orientadas a eventos

Complementarios

DevOps & Infraestructura

  • Terraform (IaC)
  • Docker
  • Artifact Registry

Observabilidad & Monitoreo

  • Cloud Logging / Monitoring / Trace / Error Reporting
  • OpenTelemetry

Gobernanza & Seguridad de Datos

  • Cloud DLP (detección y enmascarado de PII)
  • Dataform para transformaciones SQL sobre BigQuery

Bases de Datos

  • Neo4j u otras bases de datos de grafos

Experiencia & Contexto

  • Experiencia en sector aeronáutico, financiero o similar con alta regulación de datos
  • Experiencia en proyectos de data privacy, compliance o gestión de derechos de datos

Habilidades Blandas & Otros

  • Inglés intermedio (B1+) para lectura de documentación técnica
  • Capacidad de mentoring y guía de buenas prácticas al equipo

Beneficios

Trabajo 99% remoto (con un par de eventos de integración anuales), vacaciones adicionales, becas de estudios, deporte o apoyo a actividades que mejoren tu calidad de vida laboral y personal, día extra por tu cumpleaños, horario flexible y trabajo orientado a resultados, entre otros.

Library Access to a library of physical books.
Fully remote You can work from anywhere in the world.
Internal talks Continuum offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Continuum pays or copays health insurance for employees.
Computer repairs Continuum covers some computer repair expenses.
Computer provided Continuum provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Continuum gives you paid vacations over the legal minimum.
Beverages and snacks Continuum offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $4500 - 4800 Tiempo completo
Data Engineer
  • Coderslab.io
Python Agile SQL Scrum

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
Role Purpose

We are looking for a Data Engineer to design, develop, and support robust, secure, and scalable data storage and processing solutions. This role focuses on data quality, performance, and integration, working closely with technical and business teams to enable data-driven decision making.

Apply without intermediaries through Get on Board.

Funciones del cargo

Key Responsibilities

  • Design, develop, test, and implement databases and data storage solutions aligned with business needs.
  • Collaborate with users and internal teams to gather requirements and translate them into effective technical solutions.
  • Act as a bridge between IT and business units.
  • Evaluate and integrate new data sources, ensuring compliance with data quality standards and ease of integration.
  • Extract, transform, and combine data from multiple sources to enhance the data warehouse.
  • Develop and maintain ETL/ELT processes using specialized tools and programming languages.
  • Write, optimize, and maintain SQL queries, stored procedures, and functions.
  • Design data models, defining structure, attributes, and data element naming standards.
  • Monitor and optimize database performance, scalability, and security.
  • Assess existing database designs to identify performance improvements, required upgrades, and integration needs.
  • Implement data management standards and best practices to ensure data consistency and governance.
  • Provide technical support during design, testing, and production deployment.
  • Maintain clear and accurate technical documentation.
  • Work independently on projects of moderate technical complexity with general supervision.
  • Participate in Agile teams, contributing to sprint planning and delivery.
  • Provide on-call support outside business hours and on weekends on a rotating basis.

Requerimientos del cargo

Required Qualifications

  • Bachelor’s degree in Computer Science, Information Systems, Database Systems, Engineering, or a related field, or equivalent experience.
  • 4–5 years of professional experience in a similar role.
  • Strong experience with:
    • SQL
    • Snowflake
    • ETL / ELT processes
    • Cloud-based data warehousing platforms
  • Experience with ETL tools (e.g., Informatica) and programming languages such as Python.
  • Solid understanding of data warehouse design and administration.
  • Experience working with Agile methodologies (Scrum).
  • Strong analytical, conceptual thinking, and problem-solving skills.
  • Ability to plan, prioritize, and execute tasks effectively.
  • Strong communication skills, able to explain technical concepts to non-technical stakeholders.
  • Excellent written and verbal communication skills.
  • Strong interpersonal, listening, and teamwork skills.
  • Self-motivated, proactive, and results-driven.
  • Strong service orientation and professional conduc

Opcionales

Preferred Qualifications

  • Certifications in Snowflake, SQL Server, or T-SQL.

Condiciones

Remote | Contractor | High English proficiency

VER TRABAJO POSTULAR VÍA WEB
Gross salary $3500 - 3700 Tiempo completo
Big Data & Reporting Lead
  • Coderslab.io
Java Python Analytics PostgreSQL

Coderslab.io is looking to hire a Big Data & Reporting Lead to lead the organization’s data architecture and analytics strategy.

This role will be responsible for designing, governing, and optimizing the enterprise data architecture, ensuring proper structuring, integration, automation, and consumption of data for reporting, advanced analytics, and decision-making.

The position has a strong focus on data architecture, analytical modeling for MicroStrategy, process automation using n8n, and optimization of ETL/ELT data pipelines.

About the client and the project: the company delivers innovative technology solutions and provides opportunities for continuous learning under the guidance of experienced professionals and cutting-edge technologies. The goal is to deliver value in key business processes and improve operational efficiency through SAP.

Exclusive to Get on Board.

Funciones del cargo

Data Architecture
Design and govern the data architecture for Big Data and BI platforms.
Define analytical data models for reporting and analytics.
Design data lakes, data warehouses, and data marts aligned with business needs.
Establish data governance, quality, and lineage standards.
Ensure platform scalability, availability, and reliability.

Modeling and Reporting in MicroStrategy
Design and optimize the semantic layer and metadata in MicroStrategy.
Define analytical models and Star Schema structures.
Lead the development of dossiers, operational reports, and analytical cubes.
Optimize queries, performance, and execution times.
Define caching, aggregation, and pre-calculation strategies.

Automation of Analytical Processes (n8n)
Design data and reporting automation workflows using n8n.
Integrate sources such as APIs, databases, cloud services, and BI tools.
Automate data extraction, report generation, dashboard distribution, and alerts.
Design orchestration pipelines for analytical processes.

Data Processing Optimization
Design and optimize scalable ETL/ELT processes.
Optimize queries, data pipelines, and incremental loads.
Reduce latency and resource consumption in reporting.
Implement efficient data ingestion strategies.

Technical Leadership and Management
Lead Data Engineering, BI, and Analytics teams.
Track data architecture and reporting projects.
Define the data platform evolution roadmap.
Establish KPIs for reporting performance, data quality, and analytics adoption.
Align business needs with the data architecture.

Requerimientos del cargo

Experience leading data architecture or analytics platforms.
Experience in analytical data modeling (Star Schema, Data Modeling).
Experience working with Big Data or Data Warehousing platforms.
Experience with MicroStrategy for modeling and reporting.
Experience designing ETL / ELT processes and data pipelines.
Advanced SQL knowledge.
Experience with Python for data processing or automation.
Experience designing scalable data architectures.

Technologies
Big Data & Data Platforms
Spark
Hadoop
Databricks
Snowflake / BigQuery / Redshift
Kafka
Business Intelligence
MicroStrategy
Power BI (nice to have)
Tableau (nice to have)
Automation & Orchestration
n8n
Airflow
REST APIs
Webhooks
Databases
SQL Server
PostgreSQL
Oracle
NoSQL
Data Engineering
Python
Advanced SQL
ETL / ELT pipelines

Opcionales

Experience with workflow automation using n8n.
Experience with orchestration tools such as Airflow.
Experience with Power BI or Tableau.
Knowledge of event-driven or streaming architectures (Kafka).
Experience in data governance, data quality, and data cataloging.

Condiciones

Modalidad prestacion de servicios

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Digital Analytics Specialist
  • BC Tecnología
  • Santiago (Hybrid)
Analytics Power BI Data Visualization Audit
BC Tecnología es una consultora de TI con un enfoque en servicios IT, desarrollo de proyectos, outsourcing y selección de profesionales. En este rol, formarás parte de un proyecto de analítica digital orientado a transformar datos de comportamiento de usuarios en insights accionables para apoyar decisiones de negocio. Trabajarás de forma colaborativa con equipos de negocio, producto, analytics y desarrollo para asegurar la correcta medición y trazabilidad de información en sitios web y aplicaciones, aportando valor a clientes de sectores como finanzas, retail y gobierno.

Apply to this job at getonbrd.com.

Funciones

  • Analizar datos de comportamiento de usuarios en sitios web y apps para identificar oportunidades de mejora.
  • Definir estrategias de medición digital junto al Analytics Lead y equipos de negocio.
  • Documentar requerimientos de marcaje para equipos de desarrollo.
  • Configurar, mantener y validar etiquetas en Google Tag Manager (GTM).
  • Implementar herramientas de analítica digital (píxeles, floodlights, Hotjar, entre otros).
  • Validar eventos y variables en GA4 y otras plataformas de medición.
  • Generar reportes y dashboards en Looker Studio o Power BI u otras.
  • Garantizar trazabilidad y calidad de datos mediante auditorías de marcaje.
  • Realizar análisis cuantitativos y cualitativos del comportamiento del usuario.
  • Colaborar con desarrollo, producto y negocio para implementar soluciones analíticas.

Requisitos

Buscamos un perfil con capacidad analítica, habilidades de comunicación y orientación a negocio, capaz de interactuar con múltiples áreas y traducir datos en oportunidades de mejora.
Experiencia en analítica digital y medición de comportamiento de usuarios. Manejo de Google Tag Manager (GTM) y Google Analytics 4 (GA4). Experiencia implementando píxeles, etiquetas y herramientas de tracking. Experiencia generando dashboards y reportes en herramientas como Looker Studio o Power BI. Experiencia realizando auditorías de marcaje y validación de eventos. Ideal experiencia en entornos de retail o gestión de catálogos de productos y comportamiento de usuarios.
Formación ideal Ingeniería Civil Industrial o Ingeniería Comercial.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Applied Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python Data Analysis SQL

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

© getonbrd.com.

Descripción del trabajo

Como Applied Scientist, te sumaras a un equipo ya constituido de Analítica Avanzada, trabajando en conjunto con otras disciplinas tales como Data Scientist, Machine Learning Engineers, DevOps, equipos de producto y gestión.

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Tu trabajo como Applied Scientist será promover y realizar experimentos para orientar los esfuerzos e incrementos de los equipos. Estos desarrollos formarán parte de la transformación data-driven de la empresa con el propósito de fortalecer y eficientar la toma de decisiones basadas en análisis técnicos rigurosos de datos.

Como Applied Scientist tu trabajo consistirá en:

  • Ser el principal gestor de la medición de impacto de los productos, estimando y relacionando el efecto de las acciones en los principales indicadores de la compañía (Ingreso, Costo, Experiencia de Cliente, Puntualidad, entre otros), utilizando técnicas experimentales y observacionales.
  • Habilitar la experimentación en distintos equipos, identificando los métodos estadísticos adecuados para medir el impacto en cada dominio.
  • Participar de la creación de una plataforma de experimentación.

Es un trabajo muy dinámico, donde aprenderás de diferentes proyectos, colaborando con múltiples disciplinas de negocio, datos e IA, trabajando en un ambiente donde la curiosidad, colaboración y empatía son esenciales. Esperamos ver desplegadas tus ganas de aprender y enseñar.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Calificaciones clave

  • Estudios de Ingeniería Civil Industrial, Economía o similar.
  • Experiencia desarrollando estudios de evaluación de impacto utilizando técnicas experimentales y observacionales, tales como RCT (Randomized Control Trials), Técnicas econométricas como Diferencia en Diferencias, controles sintéticos, variables instrumentales, y Propensity Score Matching, entre otros.
  • Dominio intermedio de algún lenguaje de scripting orientado a análisis de datos (R y/o Python), teniendo como base manejo de flujos, condiciones, funciones; así como comodidad utilizando el principal stack de librerías como tidyverse para R, pandas y statsmodels para Python.
  • Experiencia utilizando algún lenguaje declarativo de consultas a base de datos (SQL) para preparar conjuntos de datos para análisis, así como para caracterizar su comportamiento.
  • Habilidad para trabajar en equipo, levantar requerimientos y conseguir resultados.
  • Buen manejo comunicacional y skills de colaboración.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia trabajando con equipos de datos y de análisis en torno a indicadores de negocio.
  • Conocimiento de metodologías ágiles.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage NeuralWorks pays or copays health insurance for employees.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Analyst
  • Vemo México
  • Ciudad de México (In-office)
Python Analytics Data Analysis Excel

En VEMO México, nos movemos en el ámbito de la electromovilidad para acelerar la adopción de soluciones de movilidad limpia en México y América Latina. Nuestro equipo trabaja en software y plataformas tecnológicas de alto impacto dentro de un ecosistema que integra datos, energía limpia, infraestructura de carga y servicios digitales. Buscamos talento joven para formar parte de un área de ingeniería que aprende y crece a través de proyectos reales, con foco en impacto social y ambiental. Este rol te permitirá participar en la construcción de componentes de software, colaborar con perfiles más senior y entender el ciclo completo de desarrollo dentro de una empresa cleantech en expansión, con metodología ágil y un ambiente de aprendizaje continuo.

Apply directly on the original site at Get on Board.

Funciones del cargo

El VCN Data Analyst será responsable de centralizar, analizar y traducir los datos comerciales, operativos y de portafolio de la red de recarga VCN en inteligencia accionable que impulse la toma de decisiones estratégicas, la eficiencia operativa y la escalabilidad de capacidades internas. Este rol trabaja de forma transversal con líderes de área y en estrecha colaboración con los equipos de Business Intelligence, Business Development y VCN Operations para diseñar dashboards, reportes y herramientas que fortalezcan el seguimiento de indicadores clave de la red.

Responsabilidades principales

  • Recolectar y organizar datos provenientes de CRM, sistemas de monitoreo de cargadores, O&amp;M y operaciones comerciales
  • Validar la calidad, consistencia y completitud de la información
  • Estandarizar reportes internos y bases de datos para la toma de decisiones
  • Monitorear y analizar KPIs críticos por hub, región y tipo de producto
  • Detectar outliers, desviaciones o problemas estructurales en la red
  • Evaluar performance de hubs y del portafolio de activos, generando recomendaciones para mejorar rentabilidad y eficiencia
  • Co-diseñar dashboards junto con el equipo de BI para monitorear performance en tiempo real
  • Automatizar reportes y crear herramientas que faciliten la gestión de operaciones
  • Preparar reportes ejecutivos y presentaciones para el senior management
  • Desarrollar narrativas de datos que traduzcan métricas complejas en insights estratégicos
  • Proponer iniciativas basadas en datos (zonas de oportunidad, pricing, eficiencia operativa, riesgos)
  • Acompañar a líderes de área en la implementación de soluciones
  • Identificar patrones de alto impacto y contribuir al diseño de herramientas internas de performance tracking

Requerimientos del cargo

  • Licenciatura en Ingeniería, Actuaría, Economía, Matemáticas Aplicadas, Sistemas Computacionales o afines
  • 3+ años en análisis de datos, business analytics o roles similares, idealmente en industrias de tecnología, movilidad, energía o infraestructura
  • Experiencia en forecasting, modelos de predicción y optimización de operaciones
  • Historial comprobable en diseño de dashboards y automatización de reportes
  • Experiencia trabajando con stakeholders de alto nivel y generando recomendaciones estratégicas

Habilidades técnicas (Hard Skills)

  • Dominio avanzado de Excel y PowerPoint
  • Manejo de herramientas de visualización: Power BI, Tableau
  • Conocimientos en SQL, Python o R para análisis y modelado de datos

Habilidades interpersonales (Soft Skills)

  • Capacidad analítica y pensamiento estratégico
  • Estructura y atención al detalle
  • Autonomía y ownership mentality
  • Comunicación efectiva y data storytelling
  • Adaptabilidad y colaboración transversal

Opcionales

  • Maestría o posgrado en Data Science, Business Analytics o Business Intelligence
  • Conocimientos en modelos de pricing y customer segmentation
  • Experiencia previa en empresas de alto crecimiento o scale-ups

Condiciones

A convenir según perfil y experiencia. En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Disponibilidad de horarios flexibles y oportunidades de desarrollo profesional en tecnología y negocio.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply at getonbrd.com without intermediaries.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Líder de Proyecto – Científico de Datos Senior
  • Factor IT
  • Cartagena (In-office)
Python Analytics Artificial Intelligence Machine Learning
FactorIT es una empresa líder en tecnología y soluciones de datos con presencia en 8 países de Latinoamérica. El proyecto para esta posición implica liderar iniciativas avanzadas de analítica y modelamiento matemático para clientes regionales, enfocados en transformar decisiones de negocio mediante métodos cuantitativos rigurosos. El rol requiere dirigir equipos multidisciplinarios para diseñar, desarrollar y validar modelos de analítica avanzada, especialmente en series temporales, optimización y aprendizaje automático, asegurando entregables de alto impacto para sectores como el financiero y otros grandes players regionales.

Apply to this job through Get on Board.

Funciones

  • Liderar el diseño, desarrollo y validación de modelos de analítica avanzada y predicción, con foco en series temporales y enfoques estadísticos rigurosos.
  • Formular problemas de negocio como desafíos matemáticos y estadísticos, traduciendo requisitos en soluciones analíticas aplicables.
  • Diseñar y validar modelos predictivos para series temporales y otros conjuntos de datos complejos, asegurando robustez y escalabilidad.
  • Implementar metodologías de validación de modelos y optimización de hiperparámetros, incluyendo enfoques como backtesting y validación walk-forward.
  • Colaborar con equipos técnicos y de negocio para traducir hallazgos analíticos en decisiones estratégicas y acciones operativas.
  • Documentar y explicar modelos complejos a audiencias técnicas y no técnicas, promoviendo la interpretabilidad y la trazabilidad.
  • Gestionar proyectos, planificar entregables, gestionar riesgos y garantizar cumplimiento de plazos y estándares de calidad.
  • Contribuir al desarrollo de prácticas de ciencia de datos en la organización y mentorizar a miembros del equipo.

Descripción

Buscamos un Científico de Datos Senior con formación sólida en Matemática Pura y posgrado (Maestría o Doctorado) que lidere proyectos de analítica avanzada. Se requiere experiencia comprobable en ciencia de datos aplicada, modelamiento avanzado y capacidades para gestionar soluciones complejas en entornos empresariales. El rol exige dedicación exclusiva (Full-Time) y trabajo presencial en Cartagena. Se valoran habilidades de liderazgo, comunicación efectiva y capacidad de traducir resultados analíticos en recomendaciones accionables para decisiones estratégicas.
Competencias técnicas incluyen rigor matemático, inferencia estadística avanzada, cálculo de probabilidades y modelado de series temporales; experiencia con modelos como SARIMAX, ensembles y Deep Learning aplicado a series temporales; optimización matemática y uso de herramientas de optimización (p. ej., OR-Tools). Debe manejar metodologías de validación y técnicas de interpretabilidad (SHAP u otros). Se valorará experiencia con backtesting, validación rolling y tuning bayesiano, además de la capacidad para explicar modelos complejos a audiencias diversas.
Se espera un profesional que pueda trabajar en un entorno colaborativo, con proactividad, orientación a resultados y capacidad de aprendizaje continuo en tecnologías emergentes, promoviendo la excelencia técnica y el impacto en clientes regionales.

Requisitos deseables

Formación avanzada en Matemática, Estadística, Ciencia de Datos o áreas afines, con evidencia de investigación operativa, inteligencia artificial o computación científica aplicada. Se valora experiencia en entornos financieros y capacidad para identificar y cuantificar impactos de negocio mediante modelos analíticos. Habilidades de comunicación para presentar resultados a audiencias técnicas y directivas, y experiencia en liderazgo de proyectos o equipos multidisciplinarios.

Beneficios

FactorIT proporciona un ambiente colaborativo, dinámico y con tecnologías de última generación que facilitan el crecimiento profesional constante y la innovación tecnológica.
Nuestro paquete salarial es competitivo y acorde a la experiencia y perfil, complementado con una cultura inclusiva que valora la diversidad, creatividad y el trabajo en equipo.
Al unirte a FactorIT, participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero, dentro de una organización que promueve la innovación y el desarrollo profesional continuo.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Analista de Analítica Digital
  • BC Tecnología
  • Santiago (Hybrid)
Analytics Data Analysis Power BI E-commerce

Nos encontramos en búsqueda de un Analista de Analítica Digital con experiencia en medición de comportamiento de usuarios en sitios web y aplicaciones, orientado a generar insights accionables que apoyen la toma de decisiones del negocio.

Buscamos un perfil con fuerte orientación analítica, habilidades comunicacionales y capacidad de trabajo transversal con equipos de producto, tecnología y negocio.

This posting is original from the Get on Board platform.

Principales responsabilidades

Principales responsabilidades

  • Analizar datos de comportamiento de usuarios en sitios web y aplicaciones.
  • Detectar oportunidades de mejora en la experiencia digital y generar recomendaciones accionables.
  • Participar en la definición de estrategias de medición digital junto a equipos de negocio y analytics.
  • Documentar requerimientos de marcaje para equipos de desarrollo.
  • Configurar, mantener y validar etiquetas en Google Tag Manager.
  • Implementar herramientas de medición digital y tracking.
  • Validar eventos y variables en Google Analytics 4.
  • Realizar auditorías de marcaje para asegurar la calidad y consistencia de los datos.
  • Generar dashboards y reportes para stakeholders utilizando Looker Studio, Microsoft Power BI u otras herramientas de visualización.
  • Colaborar con equipos de desarrollo, producto y negocio en la implementación de soluciones analíticas.

Requisitos y perfilExperiencia y habilidades

Experiencia en analítica digital y medición de comportamiento de usuarios.

Manejo de herramientas de analítica y tracking como Google Analytics 4 y Google Tag Manager.

Experiencia generando dashboards y visualizaciones de datos en Looker Studio o Microsoft Power BI.

Experiencia trabajando con equipos de desarrollo en implementación de tracking.

Experiencia en análisis de datos para optimización de productos digitales.

Ideal experiencia previa en retail o eCommerce.

No buscamos perfiles junior; se requiere experiencia previa en roles similares.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $1800 - 2200 Tiempo completo
Business Analyst (BA) – Productos Digitales
  • BC Tecnología
  • Santiago (Hybrid)
Agile E-commerce Jira Business Analyst
BC Tecnología es una consultora de TI con experto en diversas áreas, enfocada en servicios de IT, desarrollo de proyectos, outsourcing y selección de profesionales. Trabajamos con clientes de servicios financieros, seguros, retail y gobierno, creando equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio. Nuestro objetivo es entregar soluciones a medida y generar negocio de alto impacto para nuestros clientes.

Apply exclusively at getonbrd.com.

Funciones

  • Levantar, analizar y documentar requerimientos de negocio para productos digitales en retail media.
  • Traducir necesidades de negocio en definiciones claras para equipos de producto y tecnología.
  • Colaborar con Product Owners, desarrolladores y stakeholders regionales para alinear entregables con objetivos de negocio.
  • Analizar métricas y procesos para proponer mejoras con foco en impacto y revenue.
  • Priorizar iniciativas basadas en valor y gestionar la documentación en herramientas de gestión como Jira y Confluence.

Descripción

  • Buscamos un/a BA con +3 años de experiencia para conectar necesidades del negocio con soluciones de producto digital en retail media.
  • Rol orientado a productos digitales, e-commerce o Retail Media, con perfil analítico, proactivo y orientado a resultados.
  • Participación en proyectos regionales, trabajo en entornos ágiles y capacidad para comunicar de forma clara a equipos técnicos y de negocio.
  • Experiencia en gestión de requerimientos, documentación y uso de Jira/Confluence.

Requisitos deseables

  • Conocimientos en analítica de datos y métricas de negocio para decidir priorización.
  • Experiencia previa en proyectos de retail o medios digitales.
  • Habilidad para trabajar de forma colaborativa en entornos multiculturales y con stakeholders regionales.

Beneficios

Modalidad híbrida en Las Condes, con equilibrio entre trabajo remoto y colaboración presencial. En BC Tecnología promovemos un ambiente colaborativo, enfocado en el crecimiento profesional, aprendizaje continuo y desarrollo técnico. Participarás en proyectos innovadores con clientes de alto nivel en un entorno inclusivo y respetuoso. Ofrecemos oportunidades de desarrollo y un equipo orientado al crecimiento, con una cultura que valora la diversidad y el aprendizaje entre equipos.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer on Premise
  • Coderslab.io
C Agile SQL C#

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.

En esta ocasión estamos buscando incorporar un/a Data Engineer On-premise.

Applications: getonbrd.com.

Funciones del cargo

-Desarrollar ETL para réplica de Extracción y tratamiento de información de base de datos SQL Server.
-Programación de flujos y transformación de datos para carga de Datawarehouse.
-Analizar requerimientos del usuario para el diseño de las especificaciones técnicas.
-Elaboración de manuales técnicos.
-Trabajar como desarrollador en el marco de trabajo Scrum.
-Desarrolla de scripts/procesos.
-Desarrollar ETL bajo herramientas de Microsoft.
-Desarrollar según las especificaciones y políticas establecidas por BAC Regional.

Requerimientos del cargo

-Microsoft SQL Server.
-Modelado de Datos en Estrella o Copo de Nieve para Data Warehouse
-Microsoft Visual Studio 2022.
-Microsoft Integration Services.
-Dominio de T-SQL.
-Dominio en C# / VB.
-Dominio de mitologías de Modelo ETL y Data Warehousing.
-Conocimiento básico con Power BI.
-Azure DevOps (básico)
-Metodologías Agiles (Scrum)
-Herramientas de versionamiento de código fuente.

Condiciones

Modalidad de contratación: Prestacion de Servicio - Contractor

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer – Proyecto (Híbrida)
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL SQL Web server
En BC Tecnología diseñamos y ejecutamos soluciones de TI para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de Data & Analytics se centra en impulsar la continuidad operativa de flujos de datos corporativos mediante pipelines robustos, integraciones escalables y monitoreo proactivo. Participarás en un proyecto con enfoque en datos de alto volumen, trabajando con tecnologías modernas y un entorno ágil para entrega continua y mejoras de producto.

Find this job and more on Get on Board.

Funciones

  • Diseñar y mantener pipelines ETL/ELT para datos críticos de la organización.
  • Orquestar y monitorear flujos de datos con Apache Airflow en entornos productivos.
  • Optimizar consultas SQL en PostgreSQL y/o Amazon Redshift para rendimiento y costos.
  • Gestionar repositorios y pipelines CI/CD en Azure DevOps.
  • Resolver incidencias y asegurar la calidad, disponibilidad y trazabilidad de los datos.
  • Colaborar con equipos de ciencia de datos, ingeniería y negocio para entender requerimientos y entregar soluciones escalables.
  • Participar en la definición de estándares de gobierno de datos y mejores prácticas de ingeniería de datos.

Descripción

  • Buscamos Ingeniero/a de Datos con experiencia en desarrollo de pipelines y entornos productivos para asegurar fluidez y confiabilidad de los datos corporativos.
  • Requisitos técnicos: Python y SQL avanzados; experiencia con PostgreSQL y/o Amazon Redshift; Apache Airflow; Azure DevOps; manejo de grandes volúmenes de datos.
  • Competencias: pensamiento analítico, proactividad, orientación a resultados, capacidad de trabajo en equipo y comunicación efectiva con stakeholders.
  • Se valoran proyectos previos en entornos financieros y experiencia con herramientas de monitoreo y observabilidad de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
BI Power BI
  • BC Tecnología
  • Santiago (Hybrid)
PostgreSQL SQL Business Intelligence Power BI
En BC Tecnología, estamos formando equipos para impulsar un ecosistema de Business Intelligence corporativo de alto impacto. Nuestro objetivo es entregar soluciones analíticas y visualizaciones que faciliten la toma de decisiones estratégicas, operativas y financieras, asegurando consistencia, gobernanza y alto rendimiento en los modelos de datos. Participarás en proyectos para clientes de variados sectores (financiero, seguros, retail y gobierno), trabajando con datos de gran volumen y requerimientos de escalabilidad y calidad de la información.

Find this job and more on Get on Board.

Funciones Principales

  • Diseñar, desarrollar y mantener dashboards y reportes en Power BI alineados a necesidades operativas y financieras del negocio.
  • Construir y optimizar modelos semánticos, relaciones y medidas DAX, asegurando eficiencia y escalabilidad.
  • Levantar y analizar requerimientos con usuarios de distintas áreas, traduciendo necesidades en soluciones analíticas.
  • Desarrollar indicadores financieros, operativos y comerciales para seguimiento y toma de decisiones.
  • Aplicar segmentación y control de acceso por roles (RLS) para garantizar seguridad y gobernanza.
  • Validar la consistencia, calidad y confiabilidad de la información presentada.
  • Optimizar performance de consultas y visualizaciones, identificando cuellos de botella.
  • Gestionar código, versionamiento y despliegues mediante Azure DevOps.
  • Mantener documentación funcional y técnica actualizada.

Experiencia y Conocimientos

Se requiere experiencia avanzada en desarrollo con Power BI y trabajo con grandes volúmenes de datos y modelos analíticos complejos. Es deseable experiencia en entornos empresariales y finanzas, con capacidad para interpretar necesidades de negocio y traducirlas en soluciones escalables y bien gobernadas.
Conocimientos técnicos clave: Power BI (modelado de datos, DAX avanzado), SQL avanzado, PostgreSQL y/o Amazon Redshift, buenas prácticas de documentación, gobernanza y calidad de datos, y construcción de modelos analíticos orientados al negocio. Se valorarán competencias de comunicación, trabajo en equipo, proactividad y capacidad de manejar múltiples stakeholders.

Requisitos Deseables

Certificaciones en Power BI o análisis de datos; experiencia previa trabajando en ambientes regulados; conocimiento de Azure Data Services o herramientas similares; habilidades de storytelling con datos y experiencia en visualización orientada a usuarios finales.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer – Sas/SQL Migration
  • WiTi
  • Santiago (Hybrid)
Python SQL Virtualization Big Data
En WiTi lideramos un proyecto estratégico de migración de un ecosistema analítico legado hacia una arquitectura moderna en la nube sobre AWS.
El objetivo es estandarizar, optimizar el rendimiento y escalar la operación, trasladando lógica SAS y SQL no estándar a SQL estándar para Amazon Redshift. Este esfuerzo involucra automatización para acelerar la migración, reducción de errores y una alta interacción con equipos de data, BI y TI para asegurar trazabilidad, reproducibilidad y gobernanza de datos a nivel enterprise.
Serás parte de un equipo multidisciplinario que diseña y ejecuta la migración de punta a punta, estableciendo reglas de conversión, pipelines, controles de calidad y guías de codificación reutilizables. El proyecto ofrece visibilidad transversal sobre ETL/ELT y buenas prácticas de gobierno de datos en un entorno cloud escalable.

Apply directly on the original site at Get on Board.

Funciones del cargo

  • Analizar programas existentes en SAS, incluyendo SAS SQL no estándar y estructuras propias del entorno (macros, data steps, librerías, jobs).
  • Convertir y reescribir lógica desde SAS a SQL estándar compatible con Amazon Redshift, cuidando equivalencia funcional y performance.
  • Definir un enfoque repetible para migrar grandes volúmenes de programas: reglas, patrones de conversión y estándares de codificación.
  • Automatizar el proceso de transformación mediante scripts, reglas de conversión, validaciones automáticas, templates o pipelines.
  • Trabajar con procesos ETL/ELT en AWS, integrándose con el stack del cliente (fuentes, cargas, transformaciones, orquestación, monitoreo).
  • Validar equivalencia funcional entre SAS y Redshift mediante reconciliaciones de datos, controles de calidad y monitoreo.
  • Documentar reglas de conversión, decisiones técnicas y casos borde para un proceso mantenible y auditable.
  • Colaborar con data y TI para asegurar trazabilidad, reproducibilidad y rendimiento del data warehouse en la nube.

Perfil y requisitos

Buscamos un Data Engineer con experiencia sólida en migraciones de SAS hacia entornos cloud, especialmente Amazon Redshift, y con fuerte capacidad para optimizar consultas, diseñar estrategias de conversión y liderar iniciativas de calidad de datos. Deberás combinar habilidades técnicas avanzadas con capacidad de trabajo colaborativo en un entorno enterprise.
  • SQL avanzado (queries complejas, optimización de performance, joins pesados, window functions/CTEs), lectura e interpretación de planes de ejecución.
  • Experiencia demostrada trabajando con SAS (lectura y mantención de programas, entendimiento de SAS SQL y su lógica de procesamiento).
  • Experiencia práctica con Amazon Redshift: diseño y escritura de SQL, buenas prácticas de rendimiento y modelado en Redshift.
  • Conocimiento de ETL/ELT en AWS (p. ej., Glue, Lambda, Step Functions) y otras herramientas de orquestación.
  • Experiencia en contextos enterprise centrada en calidad, trazabilidad, documentación y resultados reproducibles.
migraciones desde SAS u otras tecnologías legacy hacia cloud data warehouses (Redshift, Snowflake, BigQuery), automatización de migraciones, Python u otros lenguajes de scripting para tooling, gobernanza de datos (naming conventions, documentación funcional/técnica, data quality checks) y monitoreo.

Requisitos deseables

Se valorará experiencia previa migrando desde tecnologías legacy hacia cloud data warehouses (SAS, otros) y participación en automatización de migraciones. Conocimientos de Python u otros lenguajes de scripting para apoyar automatización y tooling interno, así como experiencia en gobernanza de datos (naming conventions, documentación, data quality checks y monitoreo).

Beneficios

En WiTi fomentamos una cultura de aprendizaje y colaboración, con foco en proyectos digitales y de datos de alto impacto. Entre los beneficios se incluyen:
  • Plan de carrera personalizado orientado a desarrollo en data, cloud y analítica.
  • Certificaciones para continuar creciendo en tu carrera (AWS, data, analítica).
  • Cursos de idiomas para desarrollo personal y profesional.
Modalidad híbrida en Las Condes, Santiago, con flexibilidad para coordinar con equipos y stakeholders. Participación en un proyecto estratégico de transformación de datos con alta visibilidad interna y contacto directo con equipos de data, BI y tecnología. Política de trabajo remoto Híbrido; se combine trabajo remoto y días en oficina.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 3500 Tiempo completo
Data Engineer
  • Coderslab.io
Python SQL NoSQL Azure
Coderslab.io es una empresa global líder en soluciones tecnológicas con más de 3,000 colaboradores en todo el mundo, incluyendo oficinas en América Latina y Estados Unidos. Formarás parte de equipos diversos compuestos por talento de alto desempeño para proyectos desafiantes de automatización y transformación digital. Colaborarás con profesionales experimentados y trabajarás con tecnologías de vanguardia para impulsar la toma de decisiones y la eficiencia operativa a nivel corporativo.

© Get on Board.

Funciones del cargo

-Crear productos de datos que ayuden al negocio a lograr sus objetivos con fines analíticos.
-Diseñar, diseñar, construir y mantener soluciones de canalización de datos (Data Pipelines) / ETLs batch o streaming.
-Construir código para ingestar y actualizar grandes conjuntos de datos en bases de datos relacionales y no relacionales e incluso data No Estructurada.
-Aplicar buenas prácticas de Azure DevOps para facilitar el despliegue continuo de nuevas versiones de las canalizaciones y soluciones de datos a través de Pull-Request.
-Desarrollar Modelos de Datos que permitan gestionar los datos a escala, de manera óptima de cara a grandes volúmenes de datos (Modelo de Datos Data Vault), así como, Modelos de Datos Optimizados para consumos (Modelos de Datos Estrella y Copo de Nieve).
-Desarrollar Productos de Datos bajo la Arquitectura Lakehouse y aplicando buenas prácticas de Data Mesh.
-Trabajar con las áreas de negocios para comprender los objetivos, recopilar los requisitos iniciales para desarrollar y recomendar soluciones adecuadas.
-Participar en la planificación y ejecución de proyectos de ingeniería de datos, coordinando actividades y asegurando el cumplimiento de los plazos.
-Colaborar con los científicos de datos para comprender los requisitos específicos de datos necesarios para modelos de inteligencia artificial (IA) y aprendizaje automático (ML).

Requerimientos del cargo

-Microsoft Certified: Azure Data Engineer Associate
-Databricks Certified: Data Engineer Associate
-Conocimiento avanzado en bases de datos relacionales y lenguaje SQL.
-Conocimiento avanzado en bases de datos NoSql.
-Conocimiento avanzado de procesos y herramientas de ETL, principalmente enfocado a Azure.
-Conocimiento en procesamiento de datos batch, streaming, API.
-Conocimiento intermedio en programación Python y avanzado en el uso de la biblioteca pyspark.
-Conocimientos avanzados en el modelado de datos Data Vault para arquitecturas Data Lakehouse.
-Conocimientos avanzados en el modelado de datos Estrella y Copo de Nieve para arquitecturas Data Warehouse.
-Conocimiento conceptual en gobierno de datos, seguridad de los datos y calidad de los datos.

Condiciones

Modalidad de contratación: Prestación de servicio, Contractor.
Duración del proyecto: Indefinido.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Analista AML
  • BC Tecnología
  • Santiago (Hybrid)
Agile Data Analysis Communication Case Management
En BC Tecnología promovemos soluciones de tecnologías de la información para clientes de servicios financieros y sectores regulados. Buscamos un Analista de Prevención de Lavado de Dinero (AML) para integrarse a nuestro equipo de cumplimiento y prevención de delitos financieros. El/la profesional se enfocará en monitoreo transaccional y cumplimiento normativo chileno, participando en proyectos de diseño e implementación de controles AML, revisión de alertas y elaboración de reportes para auditorías internas y externas. El rol forma parte de una unidad dedicada a garantizar la integridad de las operaciones de nuestros clientes y al fortalecimiento de la gobernanza y la gestión de riesgos. Trabajarás en un entorno colaborativo, con metodología ágil y enfoque en desarrollo profesional dentro de una estructura de consultoría TI.

Official job site: Get on Board.

Principales funciones

Analizar y evaluar alertas generadas por sistemas de monitoreo transaccional para identificar operaciones sospechosas y posibles incumplimientos bajo normativa chilena (CMF, UAF y normativa vigente).
Elaborar informes de investigación y registrar resultados con documentación de soporte; apoyar en la gestión de casos y en el seguimiento de investigaciones.
Participar en la elaboración y revisión de procedimientos, políticas y controles AML; colaborar con auditorías internas y externas.
Colaborar con equipos de cumplimiento y seguridad para fortalecer el programa AML y mantener la trazabilidad de las investigaciones.
Contribuir a la mejora continua de procesos, generación de métricas y reportes de cumplimiento para la alta dirección.

Requisitos y perfil

Experiencia de 1 a 2 años en roles relacionados con Prevención de Lavado de Dinero (AML) o cumplimiento regulatorio.
Conocimiento de normativa chilena aplicable (CMF, UAF, regulación vigente) y experiencia en análisis de operaciones inusuales.
Experiencia en gestión, revisión y análisis de alertas de monitoreo transaccional, y capacidad para documentar investigaciones y gestionar casos de forma estructurada.
Habilidades analíticas sólidas, atención al detalle y capacidad para trabajar en entornos dinámicos y cambiantes.
Comunicación efectiva, tanto escrita como verbal, y capacidad para preparar reportes claros para distintas audiencias.
Trabajo en equipo, orientado a resultados, y complacencia con metodologías ágiles.

Requisitos deseables

Certificaciones relacionadas con AML/RegTech o cumplimiento normativo.
Conocimiento avanzado de herramientas de monitoreo y de bases de datos para extracción y análisis de datos.
Experiencia previa en banca, seguros u otros sectores regulados.
Iniciativa y capacidad para identificar mejoras en procesos y controles AML.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Coordinador(a) Junior de Gobierno de Datos
  • BICE VIDA
  • Santiago (Hybrid)
Data Science Continual improvement process Data governance Data Quality

En BICE VIDA somos líderes en el rubro de las aseguradoras y queremos satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos apostando por la transformación digital, buscando nuevas formas de realizar el negocio, para mantenernos vigente y responder a los constantes cambios que el entorno nos exige.

¡Únete a un equipo apasionado y altamente motivado por brindar soluciones innovadoras a sus clientes!

“Esta oferta se enmarca en la ley 21.015 que incentiva la inclusión laboral de personas en situación de discapacidad. Aquellos interesados, contarán con el apoyo de la Compañía para realizar un proceso inclusivo y en igualdad de condiciones. BICE Vida se compromete a resguardar la información que postulantes en situación de discapacidad proporcionen de manera voluntaria”.

Opportunity published on Get on Board.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un(a) Coordinador(a) Junior de Gobierno de Datos, quien estará encargado(a) de poyar la implementación del marco de Gobierno de Datos de la organización, participando activamente en el levantamiento y documentación de metadata, y acompañando a Data Owners y Data Stewards en la formalización y mantenimiento de la información.

En este rol deberás:

  • Apoyar el levantamiento de metadata (glosario de negocio, definiciones de campos, reglas básicas de calidad).
  • Documentar activos de datos en herramientas corporativas (catálogo, Excel u otras plataformas).
  • Coordinar reuniones con distintas áreas para recopilar información sobre procesos y datos.
  • Dar seguimiento a compromisos asociados a documentación y actualización de información.
  • Apoyar en la identificación de datos críticos o sensibles.
  • Colaborar en iniciativas de calidad de datos (levantamiento de reglas, revisión de inconsistencias).
  • Mantener actualizado el diccionario de datos y la documentación asociada.
  • Servir como punto de apoyo operativo entre negocio y tecnología.

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero/a Civil Industrial, Informático, Comercial o carrera afín.
  • 0 a 3 años de experiencia laboral en el rol o tareas asociadas.
  • Interés en gestión de datos, procesos y mejora continua.

✨Sumarás puntos si cuentas con:

  • Deseable experiencia básica en proyectos de datos, BI o análisis.

¿Cómo es trabajar en BICE Vida? 🤝💼

  • 🏥 Seguro complementario de salud, dental y de vida, más seguro catastrófico (para ti y tus cargas legales).
  • 🎁 Bonos en UF según la época del año y tu antigüedad en la compañía.
  • ⏰ Salida anticipada los viernes a las 14:00 hrs para ayudarte a equilibrar tu vida laboral y personal.
  • 👟 Dress code semi-formal, priorizamos la comodidad.
  • 🍽️ Almuerzo gratuito en el casino corporativo (sí, también hay día “no-fit” 😄).
  • 📚 Capacitaciones constantes para impulsar tu desarrollo profesional.
  • 🚲 Bicicleteros disponibles para que vengas en bici sin preocupaciones.

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Data Analysis Excel
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Find this job on getonbrd.com.

Funciones del cargo

  • Manage large datasets using most recent technologies
  • Partner with project leads to understand business briefs and execute analysis
  • Develop and enhance statistical model with best-in-class modelling techniques
  • Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.
  • Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)
  • Deliver informative and well-organized deliverables.Evaluate new data sources, conduct research to assist in solving business problems
  • Multi country / companies’ interactions with team and the Client is daily
  • Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)
  • Take part in organizational development activities to take our organization to the next leve
  • Proactively seek opportunities to help team members by sharing knowledge and expanding skills

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Beneficios

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Senior Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Excel SQL
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

This job is published by getonbrd.com.

Funciones del cargo

▪ Design and develop analytical solutions to address a spectrum of business challenges, focusing on user acquisition and engagement for state-of-the-art digital offerings.

▪ Collaborate with multidisciplinary teams to structure and analyze business questions through a hypothesis-driven approach.

▪ Perform cohort studies and event impact assessments to analyze outcomes of event interventions using statistical methods.

▪ Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.

▪ Designing data models and schemas that optimize performance and scalability ensuring efficient data retrieval

▪ Partner with consultants /project leads to understand business briefs and execute analyses ensuring high quality, on-time delivery

▪ Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)

▪ Deliver informative and well-organized deliverables.

▪ Develop and enhance statistical model with best-in-class modelling techniques

▪ Evaluate new data sources, conduct research to assist in solving business problems

▪ Multi country / companies’ interactions with team and the Client is daily

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organization to the next level

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1100 - 1700 Tiempo completo
Data Engineer
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python SQL Artificial Intelligence Machine Learning
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply directly on Get on Board.

Funciones del cargo

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Cloud Platforms for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, and SQL
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects. Helping translating business realities into data bases solution.
  • Performance Optimization: Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness. Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.
  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across cloud platforms environment.

Requerimientos del cargo

  • Bachelor’s degree in computer science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred.
  • Advanced English is mandatory
  • 1+ years of experience as Data Engineer
  • Cloud data storage is mandatory
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language, relational data modelling and sound knowledge of Database administration is mandatory
  • Proficiency in Python related to Data Engineering for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • Proficiency in Microsoft Excel
  • Experience within integrating data management into business and data analytics is mandatory
  • Experience working with cloud platform for deploying and managing scalable data infrastructure
  • Experience working with technologies such as DBT, airflow, snowflake, Databricks among others is a plus
  • Excellent Stakeholder Communication
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development
  • Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1200 - 1900 Tiempo completo
Data Scientist
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Data Analysis Marketing
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply directly through getonbrd.com.

Funciones del cargo

▪ Utilize advanced Python programming skills to design, develop, and deploy machine learning models and algorithms for various business use cases.

▪ Develop Machine Learning techniques such as regression, classification, clustering, and deep learning

▪ Ensure the availability, quality, and security of data used for analysis and modeling

▪ Investigate and interpret data to identify actionable insights and opportunities for improvement

▪ Work with cross-functional teams to implement data-driven solutions and drive business growth

▪ Manage client relationships effectively, including conducting meetings, understanding client requirements, and delivering solutions that meet or exceed expectations.

▪ Lead efforts to expand business opportunities by identifying new avenues for data-driven insights and solutions.

▪ Research and devise innovative statistical models for data analysis

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organzation to the next level

Requerimientos del cargo

▪ Bachelor's degree in Computer Science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred

▪ Minimum of 1+years of experience in a data science domain or related role.

▪ Proficiency in Python for data manipulation, analysis, and model development.

▪ Data Science libraries (such as NumPy, Pandas, Scikit-Learn, TensorFlow, or PyTorch)

▪ Advanced SQL skills for data extraction, transformation, and analysis.

▪ Strong experience in Lifecycle of a Data Science Modelling project

▪ Strong knowledge and practical experience in Machine Learning techniques and frameworks such as such as regression, classification, clustering, and deep learning.

▪ Strong knowledge in Statistics, ML and LLM/Gen AI

▪ Proven track record of successfully managing client relationships and delivering value-added solutions

▪ Experience in building Reporting Dashboards in any of the BI Tools is good to have: Power BI, Tableau, Looker

▪ Familiarity with any could platform such as Azure, AWS, GPC

▪ Expert in Analytics solutions such as Marketing, Predictive Order, Segmentation, Promotion, Hyper-personalization, forecasting, Pricing Analytics development is a plus

▪ Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

▪ Excellent Stakeholder communication and proactive problem-solving

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2500 Tiempo completo
BIM/Vdc Coordinator
  • Westbuilt Construction Managers LLC
Office 365 Leadership Combine Modeling
Westbuilt Construction Managers LLC is a forward-thinking construction firm focused on delivering complex interior and commercial projects. We operate with a distributed team across the United States, combining field presence with a robust remote collaboration model. The BIM/VDC Coordinator will join our technical team to drive model coordination, clash detection, and construction-focused BIM workflows for active projects managed by our New York–based construction team. This role emphasizes real-time coordination, standards development, and proactive problem solving to ensure field readiness and project success.

© Get on Board.

Key Responsibilities

  • Lead HVAC and mechanical coordination for complex interior projects, ensuring constructability and timely conflict resolution.
  • Perform advanced 3D coordination in Navisworks, including clash detection and QA/QC review.
  • Develop and manage construction-focused models in Revit to support design, coordination, and as-built documentation.
  • Work with 3D scanning and point cloud data for accurate as-built modeling and verification.
  • Participate in live technical coordination meetings with U.S.-based field teams, communicating effectively in English.
  • Support the implementation and continuous improvement of BIM standards and BIM Execution Plans across projects.
  • Demonstrate technical autonomy, strong engineering judgment, and proactive conflict avoidance to minimize field impact.

Role Overview

We are seeking a BIM/VDC Coordinator with strong experience in mechanical systems and HVAC coordination to join our team remotely. This role requires hands-on coordination on active construction projects, close collaboration with field and office teams, and leadership in technical meetings. The ideal candidate will combine advanced BIM tool proficiency with practical understanding of MEP systems, installation sequencing, and field constraints. Real coordination experience is essential; this is not solely modeling.

Desirable Skills & Experience

Minimum 3 years of hands-on BIM/VDC coordination experience in construction projects, with proven capability coordinating HVAC and mechanical systems on mid- to large-scale commercial or interior projects. Strong knowledge of mechanical, plumbing, and fire protection systems. Advanced spoken English proficiency for leading and participating in technical meetings. Experience working with international teams and a proactive, problem-solving mindset.

What We Offer

• 100% remote work environment with direct integration into a New York–based construction team
• Exposure to technically demanding U.S. construction projects
• Compensation paid in USD and opportunities for long-term professional growth
• Flexible collaboration across a distributed team and a supportive work culture

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1800 - 1900 Tiempo completo
Analista de Base de Datos
  • Punto Ticket
  • Santiago (Hybrid)
SQL TSQL SQL Server Stored Procedures

¡Hola buscadores de oportunidades!

Queremos sumar talento a nuestra Gerencia de Datos. Estamos buscando un/a Analista de Base de Datos para integrarse al equipo de Event Setup en Punto Ticket. Somos la ticketera más grande de Chile y parte de CTS Eventim, líder mundial en ticketing. Si te motiva trabajar con datos que tienen impacto directo en miles de personas que van a ver a sus artistas favoritos, este puesto es para ti.

This job is published by getonbrd.com.

Funciones del cargo

Queremos que seas parte del equipo que le da vida a los eventos en Punto Ticket. Tendrás la responsabilidad de crear y configurar eventos en nuestras plataformas utilizando SQL Server, en base a las definiciones de los ejecutivos comerciales. Tu día a día consistirá en revisar los eventos pendientes, crearlos mediante stored procedures y scripts T-SQL, probar su correcto funcionamiento y entregarlos para su revisión e implementación en producción. Trabajarás directamente con datos transaccionales donde la precisión es crítica. Además, esperamos que propongas mejoras a nuestros procesos operativos, con miras a la automatización y optimización del área.

Requerimientos del cargo

Necesitamos una seca o seco que cumpla con los siguientes requisitos:

  • Mínimo 2 años de experiencia trabajando directamente con bases de datos SQL Server (queries, stored procedures, T-SQL).
  • Formación en Ingeniería Informática, Ingeniería Civil en Computación o carrera afín.
  • Experiencia manipulando datos con impacto directo en usuarios finales.
  • Capacidad de interpretar requerimientos comerciales y traducirlos a configuraciones técnicas en base de datos.

Condiciones

  • Flexibilidad horaria: Entrada y salida flexibles, libertad para realizar trámites personales o familiares.
  • Teletrabajo opcional: Algunos días puedes trabajar desde tu casa.
  • Muy buen ambiente laboral: Hacemos que nuestro tiempo trabajando sea agradable y lo pases bien.
  • Equipo de trabajo: Punto Ticket proporciona un computador para tu trabajo.
  • Vestimenta informal: Nos gusta trabajar cómodos, así que no te exigiremos ningún código de vestimenta.
  • Ticket de almuerzo
  • Seguro de Salud y Vida

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Punto Ticket pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Punto Ticket pays or copays health insurance for employees.
Computer provided Punto Ticket provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Administrador de Bases de Datos Senior
  • BC Tecnología
  • Santiago (In-office)
PostgreSQL Automation Cybersecurity Data Architecture
BC Tecnología, una consultora de TI con amplia experiencia en administración de portafolio, desarrollo de proyectos y outsourcing, busca un Administrador de Bases de Datos Senior para un proyecto estratégico en el sector salud. El objetivo es asegurar la integridad, disponibilidad y optimización de bases de datos clínicas y administrativas, con foco en rendimiento, respaldo y cumplimiento normativo. El proyecto implica migraciones, estructuración de BD, implementación de alta disponibilidad y documentación de procedimientos.

Find this vacancy on Get on Board.

Funciones

Gestionar y optimizar bases de datos clínicas y administrativas PostgreSQL; realizar respaldos, recuperación y seguridad de la información; ejecutar migraciones y estructurar bases de datos para escalabilidad; garantizar alta disponibilidad y rendimiento; aplicar buenas prácticas de modelamiento, mantenimiento y documentación; automatizar tareas y generar scripts; cumplir normativas y estándares (Norma 820, Ley 19.628); documentar todas las acciones y mantener procedimientos actualizados.

Requisitos y perfil

Experiencia mínima de 3 años en el sector salud trabajando con datos clínicos y 5 años en empresa privada en proyectos similares. Formación de Ingeniero en Informática o carreras afines (sistemas, computación, electrónica, biomédico, etc.) con certificación en Ciencia de Datos. Sólida experiencia en PostgreSQL (mantenimiento, optimización, backups) y conocimientos en modelamiento y arquitectura de datos. Capacidad para trabajar en un entorno regulado, orientado a la calidad y seguridad de la información. Habilidades de comunicación, proactividad, trabajo en equipo y capacidad para documentar procesos de forma clara y reproducible. Deseable experiencia en IA y desarrollo de sistemas web/APP vinculados a datos biomédicos.

Deseables

Certificaciones en Ciencia de Datos y Administración de BD con IA. Experiencia en entornos de cumplimiento regulatorio y estándares de calidad. Conocimiento adicional en herramientas de automatización y scripting para procesos de bases de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Modalidad híbrida disponible en Las Condes para combinar flexibilidad remota con colaboración presencial, facilitando equilibrio y dinamismo laboral.
Trabajarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Analyst (Proyecto)
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis
BC Tecnología, una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales, busca incorporar un/a Data Analyst para un proyecto estratégico. El rol apoya la toma de decisiones basada en datos y la optimización de iniciativas digitales en un entorno con clientes de alto nivel y sector financiero. El/la profesional trabajará en un equipo ágil, colaborando con Product Owner y stakeholders para definir indicadores, priorizar iniciativas y generar insights accionables que impulsen el negocio.
La misión del proyecto es asegurar que las iniciativas digitales cuenten con métricas claras y dashboards ejecutivos para respaldar decisiones estratégicas, optimizando procesos y resultados. Se trabajará en un entorno híbrido, con foco en entrega de valor y mejora continua, y la posibilidad de involucrarse en otras áreas de la consultora según necesidades y desempeño.

Apply directly on Get on Board.

Funciones

  • Definir y monitorear KPIs del negocio, asegurando que las métricas estén alineadas con los objetivos estratégicos.
  • Construcción y análisis de dashboards ejecutivos con Power BI, incorporando visualizaciones efectivas y análisis de tendencias.
  • Apoyar en la priorización del backlog junto al Product Owner, traduciendo requerimientos de negocio en historias y métricas.
  • Analizar el impacto de funcionalidades digitales, identificando oportunidades de mejora y priorizando acciones con base en datos.
  • Generar insights accionables para el negocio y presentar hallazgos a equipos multifuncionales y alta dirección.

Descripción

Buscamos un/una Data Analyst con al menos 2–3 años de experiencia en análisis de datos, SQL, Python y Power BI. Se valorará experiencia en entornos cloud (Azure o AWS) y en Databricks. Se trabaja bajo metodologías ágiles (Scrum/Kanban). Requisitos: capacidad analítica, atención al detalle, comunicación efectiva y orientación a resultados. El/la candidato/a ideal debe poder transformar datos en insights accionables, trabajar de forma colaborativa y gestionar prioridades en un entorno dinámico.

Perfil deseable

Conocimientos en Databricks, experiencia en construcción de dashboards para ejecutivos, familiaridad con procesos de datos en la nube y capacidad de trabajar en proyectos con plazos ajustados. Se valora proactividad, pensamiento crítico y habilidad para explicar complejidades técnicas a audiencias no técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 3000 Tiempo completo
Data Scientist
  • Cordada
  • Santiago (Hybrid)
Python Analytics SQL Artificial Intelligence

Cordada es una fintech de alto crecimiento dedicada a financiar a PyMEs en LatAm. Nuestro área de Risk and Data Analytics (RDA) desarrolla procesos para crear productos de datos en todas las áreas de la empresa, con foco especial en gestión y evaluación de riesgos de crédito. Buscamos un Data Scientist que transforme datos en información de valor y participe en proyectos de diseño, construcción y gestión de modelos de machine learning para propósitos de riesgo, analítica y negocio. El candidato trabajará colaborando estrechamente con negocio, tecnología y producto para entender requerimientos y entregar insights accionables que impulsen decisiones estratégicas y mejoras operativas.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

Gestionar modelos de machine learning existentes (reentrenamientos y mejoras) e implementar nuevos modelos.

Realizar análisis exploratorios profundos para obtener insights en nuestras fuentes de datos (enfocado en negocio, análisis riguroso y trazable).

Colaborar con áreas de negocio, tecnología y producto para capturar requerimientos y priorizar iniciativas.

Proponer y desarrollar mejoras internas que optimicen el trabajo en Risk & Data Analytics, asegurando claridad, trazabilidad y calidad de código.

Descripción general

El área de Risk and Data Analytics (RDA) es responsable de desarrollar procesos para crear productos de datos para todas las áreas de Cordada, con énfasis en la gestión y evaluación de riesgos de crédito. Es fundamental para nosotros usar los datos en la toma de decisiones y respaldar nuestras metas. Buscamos un Data Scientist capaz de transformar datos en información de valor, trabajando en proyectos de diseño, construcción y gestión de modelos de machine learning para riesgos y analítica de negocio.

Requisitos técnicos incluyen dominio intermedio/avanzado de Python y librerías de data science, SQL y herramientas de control de versiones. Se valora experiencia con stack GCP. Se espera pensamiento analítico, capacidad de comunicar resultados complejos de forma simple, independencia y trabajo en equipo multidisciplinario. Se prioriza rigor, precisión y atención al detalle, así como la habilidad para investigar problemas y entender mecanismos subyacentes que expliquen el comportamiento de los datos.

Competencias y perfiles deseables

Conocimientos en estadística avanzada, econometría y estadística causal (variables instrumentales, diferencias en diferencias, regresión discontinua, etc.).

Experiencia en procesamiento de datos, construcción de features y representaciones adecuadas para modelos, así como manejo de backtesting y monitoreo de data drift. Capacidad para explicar sesgos potenciales y manejar situaciones con información incompleta o sesgada.

Conocimientos de modelos de regresión, ML supervisado/no supervisado, modelamiento probabilístico y métodos para interpretabilidad de probabilidades. Se valoran habilidades de comunicación y capacidad para presentar resultados a stakeholders no técnicos.

Beneficios

Beneficios: opciones de trabajo híbrido algunos días de la semana, días libres por cumpleaños, seguro de salud ampliado, horario de verano, salidas tempranas los viernes, día de mudanza, licencia parental extendida, y acceso a snack machine. Únete a nosotros para tener un impacto duradero en nuestra misión de impulsar a las PyMEs de América Latina. 🌟

VER TRABAJO POSTULAR VÍA WEB
Gross salary $3200 - 4100 Tiempo completo
Senior Data Scientist
  • Artefact LatAm
Python Git Data Analysis SQL

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Scientist es un profesional altamente experimentado en el análisis de datos, con profundos conocimientos en técnicas estadísticas, de programación y de aprendizaje automático. Su rol principal es utilizar estas habilidades para extraer conocimientos significativos y tomar decisiones estratégicas basadas en datos dentro de la organización.

Además de desarrollar modelos analíticos avanzados, el Data Scientist Senior ejerce un rol importante dentro del equipo asignado al cliente, aportando con su conocimiento técnico para poder tomar decisiones concretas que ayuden al desarrollo del proyecto. Su experiencia ayuda en la conceptualización hasta la implementación, y asegura la entrega de soluciones prácticas y detallistas que cumplan con las necesitas del cliente.

Apply exclusively at getonbrd.com.

Tus responsabilidades serán:

  • Análisis de Datos: Aplicar técnicas avanzadas de análisis exploratorio para comprender la estructura y características de grandes volúmenes datos, provenientes de diversas fuentes.
  • Desarrollo de Modelos Predictivos Avanzados: utilizar técnicas avanzadas de aprendizaje automático y estadística para desarrollar modelos predictivos robustos que permitan predecir tendencias, identificar patrones y realizar pronósticos precisos.
  • Optimización de Algoritmos y Modelos: dirigir la optimización de algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad.
  • Visualización y Comunicación de Datos: crear visualizaciones claras y significativas para comunicar los hallazgos y resultados de manera efectiva al cliente y a otros stakeholders clave.
  • Desarrollo de Herramientas Analíticas: diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguajes de programación como Python, R o SQL.
  • Gestión de Proyectos: liderar frentes de un proyecto relacionados al análisis de datos complejos, desde la conceptualización hasta la implementación, planificando estratégicamente los hitos y entregables acordados con los clientes.
  • Investigación y Desarrollo Continuo: mantenerse actualizado en las últimas tendencias y avances en análisis de datos, inteligencia artificial y metodologías relacionadas. Compartir conocimientos y experiencias con el equipo para fomentar un ambiente de aprendizaje continuo.
  • Contribución a Propuestas y Desarrollo de Negocios: colaborar en el desarrollo de propuestas internas para potenciales clientes, utilizando su experiencia y conocimientos para identificar oportunidades y diseñar soluciones innovadoras.
  • Apoyar al equipo desde un rol de mentor, traspasando conocimientos y buenas prácticas, proporcionándole capacitación personalizada según las necesidades individuales de los miembros.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, Física, Estadística, carreras afines, o experiencia equivalente en análisis avanzado de datos.
  • Experiencia laboral de al menos 4 años en roles de análisis de datos, preferiblemente en industrias relevantes.
  • Experto en Python, SQL y Git, con habilidades demostradas en el desarrollo de modelos analíticos y aplicaciones.
  • Amplio conocimiento de bases de datos relacionales y no relacionales, así como experiencia en procesamiento de datos (ETL).
  • Profundo conocimiento en machine learning, feature engineering, reducción de dimensiones, estadística avanzada y optimización.
  • Inglés avanzado.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal y medio día libre de cumpleaños. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por desempeño de la empresa, además de bonos por trabajador referido y por cliente.
  • Almuerzos quincenales pagados con el equipo (Chile) o Tarjeta de Alimentación (México).
  • Cobertura de salud adicional (Mexico).
  • Computadora de altos specs para trabajar cómodamente.
  • Flexibilidad horaria y trabajo por objetivos.
  • Posibilidad de participar en proyectos a nivel global, con intercambios con otros países con presencia del grupo.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Ciudad de México).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage Artefact LatAm pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2800 - 3100 Tiempo completo
Lider Técnico AWS – Datos
  • BC Tecnología
  • Santiago (Hybrid)
Agile SQL Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con enfoque en servicios, outsourcing y selección de profesionales, que acompaña a clientes de sectores como finanzas, seguros, retail y gobierno. En este rol, liderarás proyectos de datos en entornos cloud para clientes de alto perfil, asegurando soluciones escalables y alineadas a estándares de arquitectura. Trabajarás en un entorno ágil para diseñar e implementar soluciones de datos (ETL/ELT), gobernanza de datos y migraciones a la nube, colaborando estrechamente con equipos de Infraestructura, Desarrollo y Unidades de Negocio. Participarás en iniciativas de mejora continua, calidad de entrega y gobierno de datos, impulsando buenas prácticas de CI/CD y cumplimiento normativo. En un entorno híbrido, combinarás trabajo remoto con presencia en nuestras oficinas para colaborar de forma eficiente con stakeholders y equipos multidisciplinarios.

Apply directly through getonbrd.com.

Funciones principales

  • Liderar tecnicamente equipos de datos y proyectos AWS orientados a soluciones de ingesta, procesamiento y almacenamiento de datos.
  • Gestionar stakeholders y asegurar alineación de expectativas, alcance y plazos.
  • Diseñar y revisar arquitecturas de datos escalables (ETL/ELT, data lakes, data warehouses) utilizando servicios AWS (Glue, S3, Redshift, Lambda, Step Functions).
  • Garantizar gobernanza de datos, calidad, seguridad y cumplimiento de buenas prácticas de CI/CD y control de versiones.
  • Promover prácticas ágiles (Scrum/Kanban), liderazgo técnico, mentoring y desarrollo de capacidades del equipo.
  • Identificar y gestionar riesgos técnicos, definir indicadores de rendimiento y ejecutar planes de mitigación.
  • Colaborar con áreas de Infraestructura, Desarrollo y negocio para entregar soluciones alineadas a objetivos estratégicos.
  • Participar en revisiones de arquitectura, diseño de soluciones y documentación técnica.

Requisitos y perfil

Buscamos un Líder Técnico AWS con al menos 5 años de experiencia liderando proyectos y equipos de datos en entornos cloud. Se valorará experiencia sólida en proyectos de datos (ETL/ELT, arquitecturas escalables) y conocimiento profundo de servicios AWS como AWS Glue, S3, Redshift, Lambda y Step Functions. Se requiere experiencia en entornos ágiles (Scrum/Kanban), así como gobernanza de datos, CI/CD y buenas prácticas de calidad. El candidato ideal combinará habilidades técnicas sólidas con capacidad de liderazgo, comunicación efectiva y orientación a resultados.
Habilidades técnicas: diseño de arquitecturas de datos, orquestación de pipelines, proficient en SQL, modelado de datos, seguridad y cumplimiento, gestión de stakeholders, migraciones a la nube.
Competencias blandas: liderazgo colaborativo, comunicación clara, pensamiento estratégico, orientación a soluciones, capacidad de influencia y trabajo en equipo multifuncional.

Desirable

Certificaciones en AWS (por ejemplo, AWS Certified Solutions Architect – Professional o AWS Certified Data Analytics) son una ventaja. Experiencia con herramientas de orquestación adicionales, ciencia de datos, o herramientas de observabilidad y monitoreo de datos. Conocimientos en gobernanza de datos, calidad y metadatos, y experiencia en proyectos en sectores regulados también son deseables.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3700 Tiempo completo
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes

Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Apply from getonbrd.com.

Responsabilidades del Cargo

    • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
    • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
    • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
    • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
    • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Requisitos del Cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Consideración

Favor considerar adjuntar cv en Ingles actualizado al momento de postular

Beneficios

    • Un entorno de colaboración y rápido movimiento
    • Formar parte de una empresa internacional con sede en Estados Unidos
    • Asignación de reembolso por aprendizaje y desarrollo
    • Remuneración competitiva y oportunidades de promoción profesional y personal
    • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
    • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer AWS
  • BC Tecnología
Agile SQL Virtualization Big Data
En BC Tecnología buscamos Data Engineer AWS para colaborar en proyectos de alto impacto para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo, parte de una consultora de TI con enfoque en soluciones innovadoras, trabaja en entornos de Big Data y nube, diseñando y operando infraestructuras escalables para procesamiento de datos y analítica avanzada. Participarás en proyectos de migración, diseño de pipelines de datos, implementación de soluciones en AWS y operaciones de datos, con un enfoque en calidad, seguridad y cumplimiento. Formarás parte de un equipo ágil que impulsa soluciones orientadas al negocio y la eficiencia operativa.

Find this vacancy on Get on Board.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos en entornos AWS (Glue, Lambda, Step Functions, Redshift, Athena, Lake Formation).
  • Gestionar arquitectura de datos y clústeres, asegurando rendimiento, escalabilidad y seguridad de la información.
  • Implementar políticas IAM y controles de acceso, garantizando cumplimiento y buenas prácticas de seguridad.
  • Colaborar con científicos de datos y equipos de negocio para transformar requerimientos en soluciones técnicas eficientes.
  • Participar en la mejora continua de procesos, automatización y monitoreo de flujos de datos.

Perfil y habilidades

  • Experiencia mínima de 2 años como Data Engineer, preferentemente en entornos Big Data y nube AWS.
  • Conocimientos en AWS: Glue, Lambda, Step Functions, Redshift, Lake Formation, SQL, Athena y gestión de políticas IAM.
  • Experiencia con bases de datos y arquitecturas de clústeres; capacidad para optimizar rendimiento y costos.
  • Fuerte capacidad de resolución de problemas, pensamiento analítico y orientación a resultados.
  • Buen comunicador, capaz de trabajar en equipos ágiles y adaptar soluciones a requerimientos de negocio.
  • Idiomas: español; se valoran habilidades en inglés técnico.

Requisitos Deseables

  • Certificaciones AWS (por ejemplo, AWS Data Analytics, AWS Solutions Architect).
  • Experiencia en orquestación de datos y herramientas de orquestación adicional (por ejemplo, Step Functions, Airflow).
  • Conocimientos en seguridad de datos, cumplimiento normativo y buenas prácticas de DevOps/DataOps.
  • Experiencia en proyectos de migración de datos, tratamiento de datos sensibles y observabilidad de pipelines.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2800 - 3600 Tiempo completo
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes
Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

This posting is original from the Get on Board platform.

Responsabilidades del cargo

  • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
  • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
  • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
  • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
  • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Calificaciones y Requisitos del cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero Implementación de Negocios
  • BNP Paribas Cardif
  • Santiago (In-office)
Data Analysis Excel SQL Power BI

¿Quieres ser parte de los líderes en la revolución de los seguros? 😎

BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

Hoy buscamos a un Ingeniero de Implementación de Negocios que se sume al equipo de Gestión y Eficiencia Operacional. Tu misión será planificar la implementación operacional de nuevos negocios o modificaciones de productos, gestionando y coordinando con las distintas áreas de la compañía, las actividades requeridas para lograr una correcta y oportuna implementación.

Apply to this job from Get on Board.

Job functions

¿Cuáles son los principales desafíos del cargo? 🤯

  • Evaluación de la factibilidad operativa de un negocio.
  • Planificar la generación de nuevos productos, y velar por el cumplimiento de las actividades relacionadas con este proceso, de cara a otras gerencias.
  • Coordinar la implementación global de nuevos negocios al interior de Operaciones, en base a las definiciones de la Compañía y la arquitectura de los Sistemas.
  • Acompañar a líneas Operativas durante 2 ciclos productivos, ajustando en caso de encontrar errores.
  • Realizar estudios y generar indicadores adecuados para la detección de mejoras en la Implementación.
  • Generar informes que apoyen la toma de decisiones de implementación del Gerente de Operaciones.
  • Crear catálogos de servicio y desarrollar capacitación interna.
  • Generación de Fichas de Implementación y Estabilización

Qualifications and requirements

Requisitos 🔍:

  • Ingeniero Civil Industrial, Ingeniería Comercial o carreras afines.
  • Con experiencia en cargos similares, de análisis y reportería.
  • Conocimiento avanzado de Excel, SAS, SQL. (Ultimos 2 no excluyentes).
  • Conocimiento Básico – Intermedio de Power BI. No excluyente.
  • Nivel de inglés intermedio – avanzado.
  • Deseable conocimiento del ámbito asegurador.

Conditions

¿Y cuáles son nuestros beneficios?

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • ¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.
  • Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.
  • Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

Partially remote You can work from your home some days a week.
Health coverage BNP Paribas Cardif pays or copays health insurance for employees.
Computer provided BNP Paribas Cardif provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Power BI Engineer
  • WiTi
  • Santiago (Hybrid)
Analytics SQL Business Intelligence Power BI

WiTi es una empresa peru a innovar, dedicada a servicios de tecnología que transforma desafíos tecnológicos en soluciones innovadoras. Trabajamos con clientes líderes en Chile y la región, brindando talento TI de alto desempeño para proyectos de datos, analítica y transformación digital. Buscamos un/a Power BI Engineer para integrarse a un proyecto corporativo de analítica y datos, en un entorno dinámico de alta demanda de reporting, con énfasis en la orientación a usuarios internos, claridad comunicacional y entrega de tableros confiables para la toma de decisiones.

El rol se integra en un equipo de BI orientado a diseñar, implementar y optimizar soluciones de inteligencia de negocio que permitan compartir información estratégica a nivel corporativo. El proyecto favorece una cultura de datos, gobernanza, y una experiencia de usuario intuitiva para ejecutivos y usuarios de negocio.

Apply at getonbrd.com without intermediaries.

Funciones

  • Levantar requerimientos con stakeholders y traducir necesidades de negocio en métricas, definiciones y visualizaciones en Power BI.
  • Diseñar, construir y mantener dashboards e informes en Power BI, priorizando rendimiento, usabilidad y consistencia.
  • Desarrollar y optimizar consultas en SQL para preparar datasets y habilitar reporting confiable.
  • Modelar datos para analítica (relaciones, medidas, reglas de negocio) orientado a consumo BI.
  • Mantener documentación básica de definiciones, métricas y tableros para facilitar uso y continuidad.
  • Colaborar con equipos de datos/BI para alinear fuentes, definiciones y entregables.

Requisitos y habilidades técnicas

Imprescindibles

  • Experiencia sólida desarrollando en Power BI (dashboards, modelamiento para BI, medidas y buenas prácticas).
  • SQL avanzado (consultas complejas, optimización, construcción de datasets para reporting).
  • Experiencia trabajando con stakeholders de negocio: levantamiento de requerimientos, definición de KPIs y comunicación clara.
  • Conocimientos de modelamiento para analítica (enfoque BI: hechos/dimensiones o modelos equivalentes).

Deseables

  • Spark SQL
  • Conocimientos o experiencia con Databricks (o plataforma similar de datos).
  • Experiencia previa en entornos de negocio con alta rotación de requerimientos de reporting (tipo retail o similar en dinámica).

Habilidades blandas (Soft Skills)

  • Comunicación clara y orientación a stakeholders.
  • Organización y capacidad de priorización.
  • Proactividad para proponer mejoras en tableros, definiciones y forma de presentar datos.
  • Trabajo colaborativo y enfoque en soluciones prácticas.
  • Autonomía y criterio para tomar decisiones con información parcial.

Deseables

Se valorará experiencia trabajando en equipos multidisciplinarios y capacidad para traducir requerimientos de negocio complejos en soluciones de BI efectivas. Importante nivel de inglés para interactuar con documentación técnica y posibles stakeholders internacionales.

Beneficios

En WiTi promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Computer provided WiTi provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Software Engineer I (DataOps)
  • Wherex
  • Santiago (Hybrid)
Python SQL NoSQL Virtualization

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Aporta valor real en una célula de alto rendimiento con herramientas de vanguardia. Crece con profesionales especializados y conviértete en un profesional más completo en un entorno desafiante.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!

Exclusive to Get on Board.

Job functions

- Diseñar, construir y mantener pipelines de datos robustos y eficientes, que permitan la recolección, transformación y carga de datos desde múltiples fuentes internas y externas.
- Facilitar la generación de insights accionables mediante la entrega oportuna de datos confiables y enriquecidos para análisis de negocio.
- Implementar y optimizar modelos de almacenamiento (data lakes, data warehouses, bases relacionales y no relacionales), asegurando un balance entre performance, costo y escalabilidad.
- Monitorear continuamente los flujos y procesos automatizados, detectando y comunicando incidencias oportunamente para mantener una operación confiable.
- Garantizar la calidad de los datos, diseñando validaciones, controles y tests automáticos que aseguren la integridad, completitud y consistencia de la información.
- Aplicar estándares técnicos y de gobierno de datos, velando por la trazabilidad, documentación y cumplimiento de políticas de seguridad y privacidad.
- Colaborar activamente con analistas, científicos de datos y otras áreas de producto, entendiendo sus necesidades y generando soluciones que faciliten la toma de decisiones.
- Participar en ceremonias ágiles y espacios de coordinación técnica, asegurando el alineamiento con stakeholders y contribuyendo al trabajo colaborativo.
- Buscar continuamente oportunidades de mejora en herramientas, procesos y performance, priorizando soluciones reutilizables, escalables y orientadas a la eficiencia del equipo.
- Documentar de forma clara los pipelines, estructuras y decisiones técnicas, promoviendo la transferencia de conocimiento y mantención futura.

Qualifications and requirements

- Ingeniero Civil Industrial, Ingeniero Civil Informático o Ingeniero en Computación.
- Al menos 1 año de experiencia en roles de ingeniero de datos.
- Experiencia en: Python, bases de datos SQL y no relacionales (Mongo).
- Deseable experiencia trabajando con AWS o Azure.

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Administrador de Base de Datos
  • SONDA
  • Santiago (Hybrid)
SQL TSQL Cybersecurity Database Administrator

Somos SONDA, una empresa líder en transformación digital en la región. Buscamos fortalecer nuestro equipo de Base de Datos para impulsar soluciones que optimicen el rendimiento, la seguridad y la escalabilidad de nuestras plataformas. El proyecto central implica diseñar, optimizar y mantener infraestructuras de bases de datos para entornos de desarrollo y producción, asegurando alta disponibilidad, integridad de datos y eficiencia operativa. Trabajarás estrechamente con equipos de ingeniería, arquitectura y operaciones para entregar soluciones robustas que soporten la transformación digital de nuestros clientes.

This job is exclusive to getonbrd.com.

Funciones

  • Proporcionar desarrollo y/o soporte a la producción de bases de datos, incluyendo la creación de estructuras de almacenamiento y objetos primarios.
  • Diseñar y crear estructuras de datos, modificar esquemas para mejoras o rendimiento, y documentar interfaces y planes de base de datos.
  • Revisar y optimizar el rendimiento de bases de datos, incluyendo monitoreo, índices, planes de ejecución y estrategias de respaldo/restauración automatizadas.
  • Gestionar almacenamiento, planificación de capacidad y necesidades futuras de almacenamiento.
  • Crear scripts y programas relacionados con bases de datos para entornos de desarrollo y producción; investigar y evaluar soluciones técnicas.
  • Diseñar, probar y recomendar mejoras en procedimientos almacenados, triggers y vistas, optimizando código SQL y consultas complejas.
  • Gestionar seguridad de datos (roles, cifrado, autenticación, auditoría) y asegurar cumplimiento de políticas de seguridad.
  • Participar en proyectos de alta disponibilidad y recuperación ante desastres (HA/DR) mediante tecnologías como AlwaysOn, log shipping u otras.
  • Trabajar con certificaciones y buenas prácticas de Microsoft SQL Server y/o Azure Database, y mantener actualizados los conocimientos técnicos.

Descripción

En SONDA, buscamos un Administrador de Base de Datos con experiencia comprobable en SQL Server (2019 o superior) para unirse a nuestro equipo. El candidato ideal estará orientado a la optimización de rendimiento, gestión de seguridad y continuidad operativa, con capacidad para diseñar soluciones escalables y robustas. Se requieren más de 5 años de experiencia en administración, optimización y gestión de bases de datos SQL Server, así como conocimientos en replicación, clustering, particionamiento y gestión de logs. Debe tener experiencia en optimización de planes de ejecución, mantenimiento de respaldos, y en prácticas de seguridad avanzadas (TDE, Always Encrypted) y administración de roles. Certificaciones relevantes de Microsoft serán valoradas. Buscamos profesional proactivo, orientado a resultados, con habilidades de comunicación y trabajo en equipo, capaz de colaborar con equipos multidisciplinarios y en entornos ágil.

Deseables

Deseable contar con certificación Microsoft Certified SQL Server Database Administration o equivalente (Azure Database Administrator Associate, MCSE: Data Management and Analytics, MCITP: Database Administrator). Se valorará experiencia en entornos de alta disponibilidad, experiencia con SQL Server 2019 o superior, y conocimiento de herramientas de monitoreo y desempeño. Capacidades de scripting y automatización (PowerShell, T-SQL) y experiencia en migraciones y modernización de bases de datos en la nube serán un plus. Fuerte enfoque en calidad, seguridad y cumplimiento, con mentalidad de aprendizaje continuo y capacidad de adaptación a un entorno dinámico.

Beneficios

En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.

Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.

Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.

El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.

Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.

Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

Health coverage SONDA pays or copays health insurance for employees.
Computer provided SONDA provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $5000 - 5800 Tiempo completo
Data Manager
  • Artefact LatAm
  • Ciudad de México &nbsp Santiago (Hybrid)
Analytics Agile Business Intelligence Artificial Intelligence

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Data Manager es responsable del éxito de la ejecución de múltiples proyectos simultáneos. Este rol implica liderar y coordinar equipos multidisciplinarios para garantizar la entrega oportuna y de alta calidad de soluciones de datos que cumplan con los objetivos del cliente y contribuyan al crecimiento de la empresa.

© Get on Board.

Tus responsabilidades serán:

  • Integrar capacidades avanzadas de datos: Aprovechar nuestra amplia experiencia en Data Science, Business Intelligence e IA para ofrecer a los clientes soluciones sofisticadas basadas en datos.
  • Liderar transformaciones basadas en datos: Utilizar nuestros conocimientos en datos e inteligencia artificial para guiar a los clientes a través de estrategias transformadoras de marketing y negocios.
  • Desarrollar el Portfolio de clientes (Hunting): Desarrollar y ejecutar una estrategia comercial para ampliar la cartera de clientes, aprovechando un conocimiento profundo de datos e IA para posicionar a Artefact como líder en la transformación digital, gestionando y supervisando activamente el flujo comercial y elaborando propuestas centradas en datos.
  • Mejorar las relaciones con clientes existentes (Farming): Ampliar el alcance de los servicios de consultoría con nuestros clientes actuales.
  • Garantizar la excelencia del proyecto: Liderar equipos multidisciplinarios para llevar a cabo proyectos basados en datos de alta calidad, asumiendo la responsabilidad del éxito de los mismos.
  • Desarrollar nuestra plataforma de conocimiento global: Contribuir al desarrollo de una base de conocimientos integral que incluya las mejores prácticas en IA, marcos de BI, metodologías de datos y tecnologías de vanguardia.

Los requisitos del cargo son:

  • Domicilio en Santiago (Chile) o Ciudad de México (México).
  • Experiencia laboral mínima de 4 años en gestión de proyectos, preferiblemente en proyectos de consultoría o empresas de servicios tecnológicos/datos.
  • Conocimientos sólidos de metodologías de gestión de proyectos como PMI o Agile, así como experiencia en su aplicación práctica.
  • Familiaridad con conceptos y herramientas de analítica avanzada, estrategia digital, automatización e ingeniería de datos.
  • Excelentes habilidades de liderazgo, comunicación y negociación, con capacidad para influir en diferentes niveles de la organización y gestionar relaciones con clientes y equipos internos.
  • Orientación a resultados y capacidad demostrada para tomar decisiones informadas en entornos complejos y dinámicos.
  • Dominio avanzado del inglés, tanto oral como escrito, para la comunicación efectiva con clientes y equipos internacionales.

Sumas puntos extras si...

  • Posees certificaciones en gestión de proyectos (PMP, PRINCE2, Agile).
  • Manejas otros idiomas aparte del español y el inglés.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal y medio día libre de cumpleaños. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por desempeño de la empresa, además de bonos por trabajador referido y por cliente.
  • Almuerzos quincenales pagados con el equipo (Chile) o Tarjeta de Alimentación (México).
  • Cobertura de salud adicional (Mexico).
  • Computadora de altos specs para trabajar cómodamente.
  • Flexibilidad horaria y trabajo por objetivos.
  • Posibilidad de participar en proyectos a nivel global, con intercambios con otros países con presencia del grupo.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Ciudad de México).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)
...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Health coverage Artefact LatAm pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Business Intelligence Virtualization
BC Tecnología, una consultora de TI especializada en servicios IT y soluciones de negocio, busca un Data Engineer para un proyecto híbrido ubicado en Las Condes, Santiago. El/la profesional se integrará a un equipo de BI/Analytics para desarrollar, optimizar y mantener soluciones de datos en entornos analíticos, trabajando con clientes de alto nivel en sectores como finanzas, seguros, retail y gobierno. El proyecto implica colaborar con equipos de BI, Analytics y TI, contribuuyendo a la implementación de pipelines de datos, modelado y generación de reports y dashboards de valor estratégico.

Opportunity published on Get on Board.

Funciones del rol

  • Desarrollar y optimizar consultas y modelos en SQL Server para soportar reporting analítico.
  • Diseñar, implementar y mantener pipelines de datos, integrando fuentes en plataformas en la nube (AWS, Azure o GCP).
  • Desarrollar y mantener reportes y dashboards en MicroStrategy para usuarios de negocio.
  • Colaborar con equipos de BI, Analytics y TI para entender requerimientos y entregar soluciones eficientes.
  • Identificar mejoras de rendimiento, escalabilidad y calidad de datos; aplicar buenas prácticas de gobierno de datos.

Requisitos y perfil

  • Al menos 3 años de experiencia como Data Engineer o BI Engineer.
  • Experiencia comprobable en SQL Server y MicroStrategy.
  • Experiencia trabajando con alguna nube (AWS, Azure o GCP).
  • Capacidad para trabajar en entornos colaborativos, orientado a resultados y con buena comunicación con stakeholders.
  • Conocimiento en conceptos de modelado de datos, extracción, transformación y carga (ETL/ELT) y buenas prácticas de calidad de datos.

Skills and assets

  • Certificaciones en SQL Server, Data Platform o tecnologías de nube asociadas.
  • Con experiencia en herramientas de visualización y dashboards además de MicroStrategy.
  • Conocimientos de Python o lenguajes de scripting para transformaciones de datos.
  • Actitud proactiva, pensamiento analítico y capacidad para trabajar de forma autónoma en entornos dinámicos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer
  • Talana
  • Santiago (Hybrid)
Java Python SQL Erlang

En Talana, buscamos un Data Engineer que diseñe, implemente y optimice una arquitectura de datos escalable, segura y de alta disponibilidad para transformar datos crudos en insights confiables. El objetivo fundamental es transformar datos crudos provenientes de diversas fuentes en activos de datos listos para el análisis, asegurando la excelencia operativa y la automatización total del ciclo de vida del dato mediante prácticas de DataOps.

This posting is original from the Get on Board platform.

Funciones y responsabilidades

  • Diseñar y desplegar pipelines ETL/ELT robustos en GCP para centralizar datos de toda la organización.
  • Gestionar Infraestructura como Código (IaC) con Terraform para reproducibilidad, trazabilidad y control de costos.
  • Optimizar BigQuery mediante particionamiento, modelos de datos y técnicas de costo-efectividad para maximizar ROI por consulta.
  • Configurar orquestación de flujos con Dataflow y garantizar la frescura de los datos para tableros de control listos para las reuniones matutinas.
  • Implementar políticas de IAM, cifrado y gobernanza para mantener un Data Lake seguro y conforme a estándares internacionales.
  • Configurar monitoreo proactivo y alertas para detección de anomalías y mejora de la confiabilidad en tiempo real.
  • Colaborar con SRE y equipos de negocio para entregar soluciones que añadan valor inmediato.

Requisitos y perfil buscado

  • Formación: Ingeniería Civil/Informática o carreras afines.
  • Experiencia: mayor a 3 años en roles de ingeniería de datos, con al menos 1 año en nivel semi senior.
  • Conocimientos técnicos: SQL y Python a nivel avanzado; experiencia con Terraform; conocimiento de GCP (preferible) o AWS. Deseables: Apache Kafka, Apache Beam, Apache Iceberg. Inglés técnico suficiente para lectura de textos técnicos.
  • Competencias: pensamiento analítico, enfoque en calidad de datos, capacidad para trabajar en entornos colaborativos y orientados a resultados.

Deseables

Experiencia en migraciones de datos a Data Lakehouse, experiencia con orquestación avanzada, y habilidades para diseñar arquitecturas de datos que soporten dashboards y métricas en tiempo real. Conocimiento práctico de seguridad de datos, gobernanza y cumplimiento de normativas.

Beneficios

  • 💸 Ajuste de renta por UF cada 3 meses, sin tope
  • 🏝️ 5 Talana Days: te regalamos 5 días libres al año
  • 🏡 Trabajo híbrido
  • 🏥 Seguro complementario de salud y dental
  • 💰 Aguinaldos fiestas patrias y Navidad
  • 💻 Te pasamos todos los implementos de trabajo
  • 😎 Dress Code 100% flexible
  • 👨🏻‍🍼 Postnatal paternal extendido

¡¡Muchas sorpresas más!!

"Todas las contrataciones están sujetas a la ley 21015. En Talana creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas"

Health coverage Talana pays or copays health insurance for employees.
Computer provided Talana provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Talana gives you paid vacations over the legal minimum.
Beverages and snacks Talana offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Virtualization
BC Tecnología es una consulta de TI especializada en la gestión de portafolios, desarrollo de proyectos y outsourcing de personal para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Enfocada en clientes de servicios financieros, seguros, retail y gobierno, la empresa promueve soluciones a través de metodologías ágiles y un marco de cambio organizacional centrado en el desarrollo de productos. El Data Engineer se integrará a proyectos desafiantes que buscan optimizar flujos de datos, gobernanza y escalabilidad, apoyando a clientes con alto estándar de calidad y buscando mejoras continuas en procesos y pipelines.

Apply from getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines eficientes para mover y transformar datos, asegurando rendimiento y escalabilidad.
  • Garantizar consistencia y confiabilidad mediante pruebas unitarias y validaciones de calidad de datos.
  • Implementar flujos CI/CD para ambientes de desarrollo y producción, promoviendo buenas prácticas de DevOps.
  • Diseñar pipelines avanzados aplicando patrones de resiliencia, idempotencia y event-driven.
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje.
  • Colaborar con líderes técnicos y arquitectos para definir estándares, guías y mejoras de procesos.
  • Alinear soluciones técnicas con requerimientos de negocio y metas de entrega.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas del equipo.

Requisitos y experiencia

Buscamos un Data Engineer con al menos 2 años de experiencia en el diseño y construcción de pipelines de datos. Debe poseer dominio avanzado de Python, Spark y SQL, y experiencia trabajando en el ecosistema AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia con lakehouses (Delta Lake, Iceberg, Hudi) y conocimientos en CI/CD (Git) y control de versiones. Se valorará experiencia previa en entornos de retail y en proyectos de calidad y gobierno de datos, así como experiencia en desarrollo de integraciones desde/hacia APIs y uso de IaC (Terraform).
Se requieren habilidades de comunicación efectiva, trabajo en equipo y proactividad. Se valorará capacidad de aprendizaje, colaboración entre equipos y enfoque en resultados en un entorno dinámico y con clientes de alto nivel.

Requisitos deseables

Experiencia previa en retail o sectores regulados. Conocimiento en calidad y gobierno de datos. Experiencia en desarrollo de integraciones desde/hacia APIs. Conocimientos en herramientas de orquestación y monitoreo de pipelines. Familiaridad con buenas prácticas de seguridad de datos y cumplimiento normativo. Capacidad para comunicar conceptos técnicos a audiencias no técnicas y para fomentar una cultura de mejora continua.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $3500 - 5200 Tiempo completo
Senior Data Engineer – AI Data Infrastructure
  • Vequity
Python SQL JSON Machine Learning

Vequity is building the world’s most robust, contextualized buyer intelligence network for investment banks, private equity firms, and strategic acquirers. Our platform currently houses over 1.5 million buyer profiles with approximately 100 structured and inferred data fields per profile. We leverage proprietary AI agents to continuously enrich, infer, and structure buyer intelligence at scale. As a Senior Data Engineer, you will own the architecture, quality, and scalability of our data ecosystem—from ingestion and cleaning to inference and output generation. You will partner with AI, product, and engineering teams to deliver data APIs and feeds that power our platform's decision-support capabilities. Your work will directly impact data reliability, operational efficiency, and the precision of buyer attributes used across our customers.

Job source: getonbrd.com.

Key Responsibilities

Multi-Source Data Architecture

  • Work with systems handling multiple write paths: external providers, LLM hygiene agents, and customer-claimed edits
  • Define standards for data versioning, lineage, and observability across pipelines


Entity Lifecycle & Master Data Management

  • Handle entity lifecycle complexity: mergers, acquisitions, spin-offs, rebranding, and temporal relationship changes
  • Design entity resolution systems using deterministic blocking (fuzzy matching, location) combined with LLM-based evaluation for match decisions
  • Build confidence scoring models and surface low-confidence cases for human review

Machine Learning & Matching Systems

  • Work with embeddings infrastructure: vector generation, retrieval optimization, and quality measurement
  • Optimize semantic search pipelines including embedding strategies, namespace design, and reranking
  • Establish evaluation frameworks to measure model performance against human judgment

Collaboration & Team Development

  • Educate and mentor the engineering team on data best practices, patterns, and common pitfalls
  • Lead continuous improvement of the data infrastructure roadmap

Relationship & Graph Modeling

  • Design data models for complex relationships: parent/subsidiary hierarchies, PE firm → portfolio company chains
  • Evaluate and implement graph query capabilities (Apache AGE, Neo4j, or optimized Postgres patterns) for relationship traversal that semantic search cannot address

Data Quality, Testing & Operations

  • Build quality-control layers including confidence scoring, human-in-the-loop validation, and automated anomaly detection
  • Implement testing strategies including data contracts, pipeline unit tests, and integration testing
  • Build proactive monitoring, alerting, and runbooks for data health issues
  • Ensure compliance with data governance, privacy, and security standards

Description

  • 5+ years in data engineering with strong Python (Pydantic a bonus), SQL, and cloud data stacks (including GCP)
  • Experience with orchestration frameworks (Airflow, Dagster, Prefect) and/or data platforms (Databricks)
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of embedding-based retrieval
  • Excellent communication and cross-team collaboration skills

Desirable

  • Prior experience with Machine Learning algorithms / semantic search
  • Prior experience with entity resolution or master data management — you understand why matching company records is fundamentally hard
  • Familiarity with graph databases or graph query patterns (Neo4j, Apache AGE, recursive CTEs) for complex entity relationships
  • Experience with event sourcing or append-only architectures for audit trails and data replay
  • Background in investment data, market intelligence, or deal sourcing platforms
  • Familiarity with agent orchestration tools (LangChain, LlamaIndex) and data quality frameworks (dbt, Great Expectations)
  • Experience as an early/first data hire at a startup
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of prompt engineering, MCP Servers, function calling, and embedding-based retrieval

Benefits

Competitive compensation and Paid Time Off (PTO).

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales. Nuestro enfoque es crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, con un equipo multidisciplinario y una cultura de aprendizaje y crecimiento profesional. Formarás parte de una organización que prioriza la calidad, la seguridad y la gobernanza de datos mientras impulsa soluciones de alto impacto para la toma de decisiones estratégicas.

This job is original from Get on Board.

Funciones

  • Diseñar, construir y mantener pipelines de datos (ETL / Data Pipelines) robustos, escalables y eficientes para procesar grandes volúmenes de información de múltiples fuentes.
  • Gestionar la ingesta, procesamiento, transformación y almacenamiento de datos estructurados y no estructurados.
  • Implementar soluciones de ingeniería de datos en entornos cloud, con preferencia por AWS (Glue, Redshift, S3, etc.).
  • Traducir necesidades de negocio en requerimientos técnicos viables y sostenibles.
  • Colaborar con equipos multidisciplinarios (negocio, analítica, TI) para entregar soluciones de valor.
  • Aplicar buenas prácticas de desarrollo, seguridad, calidad y gob (governance) de datos; versionado de código, pruebas y documentación.
  • Participar en comunidades de datos, promover mejoras continuas y mantener la documentación actualizada.

Requisitos y habilidades

Estamos buscando un Data Engineer con al menos 3 años de experiencia en roles de Ingeniería de Datos y experiencia comprobable en ETLs y arquitecturas de datos en la nube. El candidato ideal debe haber trabajado en entornos ágiles y tener experiencia en proyectos de Retail o sectores afines (deseable).
Conocimientos técnicos requeridos:
  • Cloud Computing: AWS (Glue, Redshift, S3, entre otros).
  • Orquestación de pipelines: Apache Airflow.
  • Lenguajes de programación: Python (preferente) o Java.
  • Almacenamiento de datos: SQL, NoSQL, Data Warehouses.
  • Buenas prácticas: control de versiones, pruebas y documentación.
Competencias blandas: orientación al cliente, capacidad de trabajar en equipos multidisciplinarios, proactividad, pensamiento analítico y habilidades de comunicación para traducir requerimientos técnicos a negocio.

Deseables

Experiencia en Retail y en proyectos con gobernanza y cumplimiento de datos, experiencia con herramientas de visualización y analítica, conocimiento de seguridad de datos y cumplimiento normativo, y experiencia en migraciones o modernización de data stacks.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Apply without intermediaries from Get on Board.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Docente de Minería de Datos
  • Duoc UC
  • Puerto Montt (In-office)
Python Data Analysis Business Intelligence Artificial Intelligence

Duoc UC Sede Puerto Montt, perteneciente a la Escuela de Informática y Telecomunicaciones, busca incorporar docentes para la asignatura de Minería de Datos. El objetivo es liderar el proceso de enseñanza y aprendizaje siguiendo el modelo educativo institucional, alineado a sus valores y marco disciplinar. El rol requiere aprovechar la formación y experiencia profesional para impactar positivamente en el aprendizaje de los estudiantes, contribuyendo al desarrollo de técnicas de análisis de datos y a la generación de insights relevantes a partir de grandes conjuntos de datos.

El/la docente trabajará en un entorno colaborativo, con equipos multidisciplinarios, y participará en procesos de desarrollo docente y actualización tecnológica para fortalecer las competencias de los estudiantes en Minería de Datos, Business Intelligence y análisis para toma de decisiones.

Apply to this posting directly on Get on Board.

Funciones

  • Planificar, impartir y evaluar cursos y módulos relacionados con Minería de Datos, análisis de datos y herramientas de data science.
  • Diseñar actividades prácticas, proyectos y casos de negocio que conecten la teoría con la solución de problemas reales.
  • Guiar a los estudiantes en la explotación de grandes volúmenes de datos y en la generación de observaciones e insights accionables.
  • Participar en iniciativas de desarrollo docente, actualización tecnológica y mejora continua de la asignatura.
  • Dirigir, supervisar y evaluar trabajos de curso, proyectos finales y prácticas profesionales, promoviendo buenas prácticas de análisis de datos y ética.
  • Asesorar y orientar a estudiantes en su progreso académico y en el desarrollo de habilidades técnicas y blandas relevantes para la industria.

Descripción

Se requiere un/a Ingeniero/a en Informática, Ejecución Informática o afín, con al menos 2 años de experiencia en análisis y diseño de software, manejo de modelos de datos y experiencia en técnicas de Minería de Datos e Inteligencia de Negocios. Debe haber trabajado con grandes volúmenes de datos y ser capaz de documentar observaciones e indiciar insights relevantes. Disponibilidad para jornada diurna y vespertina.

Conocimientos deseables incluyen manejo de Python para análisis de datos, experiencia en machine learning y minería de datos. Se valorará formación complementaria (diplomados o cursos) en estas áreas. Disposición para revisar previamente materiales institucionales y videos requeridos como parte del proceso de incorporación.

Requisitos deseables

  • Formación: Se requiere un Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en: Análisis y diseño de software, empleando modelos de datos. Experiencia con técnicas de Minería de Datos. Experiencia en áreas de Inteligencia de Negocio. Que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Lunes: 19:01 a 21:10 Miércoles: 16:41 a 18:50/ Jueves: 11:31 a 13:40, 16:41 a 18:50 &20:31 a 22:30 Viernes: 11:31 a 13:40.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Beneficios

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Docente de Minería de Datos
  • Duoc UC
  • Santiago (In-office)
Python Data Analysis SQL Business Intelligence
Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia y la máxima acreditación institucional. Nos enfocamos en formar técnicos y profesionales a través de 9 escuelas y más de 70 carreras vigentes, presentes en 18 sedes regionales. Nuestro equipo docente colabora en entornos multicisciplinarios y con enfoque en valores institucionales, buscando aportar al desarrollo económico de Chile mediante una educación de calidad y actualizada.

Apply to this job from Get on Board.

Funciones y responsabilidades

  • Liderar el proceso de enseñanza/aprendizaje en la asignatura de Minería de Datos, alineada al modelo educativo y al marco valórico institucional.
  • Desarrollar unidades didácticas, planificaciones y recursos pedagógicos que favorezcan el aprendizaje activo (ABP) y proyectos aplicados.
  • Evaluar y retroalimentar a los estudiantes, contextualizando contenidos al mundo laboral y simulando entornos empresariales.
  • Trabajar en colaboración con equipos multidisciplinarios, integrando herramientas de análisis de datos, inteligencia de negocio y desarrollo de software.
  • Integrar tecnologías y prácticas actuales de minería de datos, analítica y visualización para generar insights relevantes.
  • Contribuir a la mejora continua de la calidad de la enseñanza y del desempeño estudiantil.

Requisitos y perfil buscado

Requisitos del perfil:

  • Formación: Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en Análisis y diseño de software, empleando modelos de datos, aplicación de técnicas de Minería de Datos, experiencia en áreas de Inteligencia de Negocio, que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Martes: 16:01 a 17:20/ Miércoles: 16:01 a 18:50/ Jueves: 19:01 a 21:10/ Viernes: 20:31 a 22:30.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Debe poseer competencias profesionales tales como:

  • Conocimiento en estadística para minería de datos.
  • Conocimientos en lenguaje de programación Python, librerías: numpy, pandas, sckit learn.
  • Habilidad y experiencia en análisis y diseño, empleando modelos de datos.
  • Experiencia con técnicas de Minería de Datos basado en metodología CRISP-DM.
  • Experiencia en áreas de Inteligencia de Negocio.
  • Conocimiento en estadística descriptiva e inferencial para minería de datos.

Competencias deseables

Conocimiento avanzado de Python y sus ecosistemas para ciencia de datos; experiencia adicional en SQL, bases de datos y visualización (por ejemplo, Power BI o Tableau). Certificaciones o cursos en ML/IA y minería de datos, así como experiencia de enseñanza en entornos universitarios o técnicos.

Beneficios y condiciones

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Engineer (AWS Redshift / Zero‑ETL / Consumption Layer)
  • WiTi
Analytics SQL Business Intelligence Virtualization
Nos dedicamos al desarrollo de software y soluciones tecnológicas. Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles. Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.

Apply directly through getonbrd.com.

Funciones del cargo

Buscamos un Data Engineer con experiencia sólida construyendo y optimizando capas de consumo analíticas en entornos cloud, idealmente sobre Amazon Redshift Serverless.
Tu misión será diseñar, modelar y mantener una capa de consumo en Redshift a partir de datos replicados vía Zero‑ETL desde Aurora, habilitando datasets confiables y performantes para reporting, métricas multi‑dominio y casos de uso de analítica/IA.

Responsabilidades principales:

  • Diseñar modelos analíticos (facts, dims y marts) orientados a autoservicio de datos y consumo por herramientas BI/IA.
  • Implementar y optimizar consultas SQL avanzadas sobre Redshift (joins grandes, agregaciones, window functions) garantizando buen performance y costo.
  • Analizar y tunear el rendimiento de Redshift (EXPLAIN, DS_BCAST/DS_DIST, scans, spill, skew) proponiendo mejoras continuas en diseño físico.
  • Definir y ajustar DISTSTYLE/DISTKEY, SORTKEY, CTAS/materializaciones y estadísticas para maximizar la performance de la capa de consumo.
  • Construir pipelines livianos en AWS (Redshift Data API, Lambda, EventBridge u otros servicios equivalentes) para refrescar la capa de consumo con mínima latencia y alta confiabilidad.
  • Colaborar con analistas, producto y stakeholders de negocio para entender métricas clave y reflejarlas correctamente en los datasets.

Requerimientos del cargo

  • Experiencia comprobable como Data Engineer (ideal 3+ años) trabajando con warehouses en cloud.
  • Experiencia práctica con Amazon Redshift (idealmente Redshift Serverless) y SQL avanzado.
  • Conocimientos fuertes de performance tuning en Redshift: lectura de EXPLAIN, comprensión de broadcast vs redistribution (DS_BCAST/DS_DIST), manejo de scans, spill y skew.
  • Diseño físico y optimización de tablas en Redshift: DISTSTYLE/DISTKEY, SORTKEY, uso de CTAS/materializaciones y manejo de estadísticas.
  • Experiencia en modelado analítico (esquemas de hechos y dimensiones, data marts, agregados) orientado a consumo.
  • Experiencia construyendo pipelines livianos en AWS para refrescar datos (por ejemplo Redshift Data API, Lambda, EventBridge o servicios equivalentes).

Nice‑to‑have (deseables):

  • Experiencia usando dbt para modelado y orquestación ligera sobre el warehouse.
  • Prácticas de data quality (tests, checks, monitoreo de calidad de datos).
  • Experiencia exponiendo la capa de consumo a través de herramientas BI como QuickSight u otras.
  • Haber habilitado semantic layers o datasets pensados para IA/LLM o analítica avanzada.

Soft Skills

Resolución de problemas: Capacidad analítica para identificar cuellos de botella de performance y proponer soluciones técnicas simples y efectivas.

  • Comunicación: Habilidad para explicar decisiones de diseño de datos y métricas a perfiles técnicos y de negocio.
  • Colaboración: Experiencia trabajando con equipos ágiles y en coordinación con analistas, científicos de datos y desarrolladores.
  • Orden y detalle: Prolijidad en documentación, definición de contratos de datos y buenas prácticas en modelado.

Condiciones

En WiTI, nuestro centro son las personas y la agilidad, nos gusta compartir conocimientos entre todos y distintas áreas, cómo compartir tiempo extra para conversar sobre videojuegos, películas, seríes y cualquier topic interesante para nosotros.

  • Plan de carrera
  • Certificaciones
  • Cursos de idiomas
  • Aguinaldos

Fully remote You can work from anywhere in the world.
Internal talks WiTi offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Conference stipend WiTi covers tickets and/or some expenses for conferences related to the position.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Data Analysis Excel

BC Tecnología es una consultora de TI que diseña soluciones para clientes en sectores como finanzas, seguros, retail y gobierno. En este rol, te integrarás a un equipo de Risk Operations enfocado en generar y mantener un ecosistema de procesos de monitoreo y alertas para detectar conductas fraudulentas o riesgosas de Sellers activos en el Marketplace. Trabajarás en proyectos estratégicos de alto impacto, con coordinación de requerimientos a nivel local e internacional, buscando mitigar riesgos operacionales y reputacionales mediante soluciones basadas en datos y automatización de procesos.

Colaborarás con áreas de negocio para traducir necesidades en soluciones analíticas; levantarás, documentarás y mantendrás procesos automáticos; y contribuirás a la mejora continua de procesos operacionales a través de insights basados en datos y reportes periódicos. Tendrás la oportunidad de participar en un entorno colaborativo, con cultura de aprendizaje y enfoque en crecimiento profesional.

Send CV through getonbrd.com.

Funciones y responsabilidades clave

  • Generar y mantener un ecosistema de procesos de monitoreo y alertas para detección de incumplimientos y comportamientos riesgosos.
  • Analizar grandes volúmenes de datos para diseñar flujos automáticos de alertas, reportes y monitoreos orientados a la detección de riesgos.
  • Elaborar reportes periódicos y análisis ad-hoc que permitan identificar, priorizar y accionar casos de riesgo.
  • Generar insights y recomendaciones accionables para la mejora continua de procesos operacionales.
  • Levantar, documentar y mantener los procesos automáticos implementados.
  • Gestionar proyectos de analítica de principio a fin, coordinando requerimientos con stakeholders locales e internacionales.
  • Comprender cómo interactúan las distintas áreas del negocio dentro del ecosistema digital y traducir necesidades en soluciones basadas en datos.
  • Utilizar estructuras de almacenamiento y herramientas de explotación de datos para apoyar la toma de decisiones.

Descripción y requisitos del rol

Buscamos un/una Analista de Datos con 2 a 4 años de experiencia en roles similares (Analítica, BI, Operaciones, Marketing o afín). Se valorará experiencia en Ecommerce. Requerimos dominio avanzado de SQL y nivel intermedio–avanzado de inglés. Se espera manejo avanzado de al menos una herramienta de visualización/análisis de datos (Excel, Tableau, Power BI o Data Studio). Experiencia en al menos un lenguaje de programación para análisis de datos (preferible Python; R u otro también válido). Conocimientos en plataformas Cloud, idealmente Google Cloud Platform. Conocimientos en Prompt Engineering serán valorados. Se ofrece modalidad de trabajo híbrida y contrato a plazo fijo con proyección a indefinido según desempeño. Participarás en proyectos estratégicos y en un entorno orientado a la toma de decisiones basada en datos.

Requisitos deseables

Experiencia adicional en herramientas de analítica avanzada, experiencia en entornos fintech o marketplaces, capacidad de trabajar en entornos ágiles, habilidades de comunicación para colaborar con stakeholders diversos y experiencia en modelado de datos y gobernanza de datos.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Market Data Manager
  • Niuro
Excel Audit Data governance Integration Testing
Niuro is advancing global talent acquisition by connecting projects with elite tech teams and delivering autonomous, high-performance groups to U.S. companies. Our Market Data team plays a pivotal role in ensuring compliant, accurate usage and billing of exchange market data. The project focuses on building scalable processes for licensing, entitlements, reporting, and data governance across trading platforms, brokerages, and prop firms. You will collaborate with cross-functional teams to uphold licensing rules, optimize data usage, and drive audit readiness, enabling secure, efficient data operations in a fully remote environment.

Apply to this job directly at getonbrd.com.

Key Responsibilities

  • Oversee exchange market data compliance, licensing rules, and Vendor-of-Record (VOR) requirements.
  • Manage user classifications (Pro vs Non-Pro, display vs non-display, evaluator usage) and audit declarations for discrepancies.
  • Coordinate access controls, entitlement updates, and enforce compliance with Engineering.
  • Prepare and submit monthly usage, billing, and compliance reports; reconcile platform usage with partner records to ensure accurate invoicing.
  • Support audits and maintain audit-ready documentation; act as a compliance and data operations contact for partners and stakeholders.
  • Collaborate with cross-functional teams including Legal, Finance, Security, and Engineering to mitigate compliance risks and improve data governance.
  • Continuously improve processes for data licensing, usage tracking, and reporting workflows using available tools.

Role Overview & Requirements

We are seeking a seasoned Market Data Manager to lead our market data operations, ensuring accurate reporting, compliant licensing, and robust VOR adherence across all data use cases. The ideal candidate will have hands-on experience with market data licensing (display, non-display, evaluator rules), strong analytic and documentation skills, and the ability to work effectively with cross-functional teams in a fully remote setting aligned to U.S. Eastern Time.
Required skills include advanced proficiency in Excel or Google Sheets for reporting and reconciliation, experience with billing, usage logs, or data reporting workflows, and a keen eye for detail. Candidates with exposure to trading platforms, prop firms, or brokerages, as well as familiarity with entitlement systems, dashboards, or APIs, will stand out. Excellent written and verbal communication is essential to maintain audit-ready processes and clear stakeholder engagement.
We value proactive problem-solvers who can operate with a high level of ownership, adaptability, and integrity in a confidential environment. A background in compliance, audit, or data governance is advantageous.

Desirable Skills & Experience

Experience with trading platforms, brokerages, or prop trading environments.
Background in compliance, audit, or data governance roles.
Familiarity with entitlement systems, dashboards, or APIs to automate data access controls and reporting.

Benefits & Work Environment

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero Senior de Data & Risk Ops
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis Excel Marketing

En BC Tecnología, el rol se enfoca en diseñar y operar un ecosistema de alertas y monitoreo para detectar y mitigar de forma proactiva riesgos y fraudes en el Marketplace. Trabaja con datos multi-fuente para generar reportes, dashboards e insights accionables, apoyando la toma de decisiones del equipo de Risk Ops.
Incluye gestión end-to-end de proyectos, colaboración con equipos locales e internacionales, comunicación con stakeholders y documentación de procesos automatizados, con foco en analítica, automatización y gobernanza de datos para la mejora continua.

Applications: getonbrd.com.

Principales funciones

  • Analizar datos y diseñar flujos automáticos que guíen la toma de decisiones entre áreas dentro de la empresa.
  • Gestionar proyectos de datos de principio a fin: levantamiento de requerimientos, desarrollo, validación y entrega de resultados.
  • Elaborar reportes y alertas que permitan monitorear casos de incumplimiento en el Marketplace y mitigar comportamientos de riesgo.
  • Generar insights y recomendaciones basadas en análisis ad-hoc para mejoras en procesos y herramientas.
  • Trabajar con distintas áreas para entender su interacción en el ecosistema digital y convertir insights en acciones de valor.
  • Conocer estructuras de almacenamiento de datos y herramientas disponibles para explotar la información y soportar la toma de decisiones.

Perfil y experiencia

Perfil profesional requerido:
  • Título de Ingeniería Civil Industrial, Ingeniería en Computación o Informática, o carrera afín.
  • 2-4 años de experiencia en roles similares (análisis en Operaciones, BI, Marketing, etc.).
  • Usuario avanzado en SQL (excluyente).
  • Inglés intermedio–avanzado (excluyente).
  • Usuario avanzado en al menos una herramienta de análisis/visualización: Excel, Tableau, Power BI, Data Studio (excluyente).
  • Experiencia en al menos un lenguaje para análisis de datos: Python (preferentemente), R, Julia, etc. (excluyente).
  • Conocimientos de plataformas Cloud, preferentemente Google Cloud Platform (no excluyente).
  • Conocimientos avanzados de Prompt Engineering (no excluyente).

Deseables

Se valorará experiencia en Ecommerce, capacidad para trabajar en entornos dinámicos de alto volumen de datos y habilidades de comunicación para interactuar con múltiples stakeholders a nivel internacional.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3500 Tiempo completo
Ingeniero de Datos
  • Coderslab.io
Python SQL Web server Data Transformation
Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
En esta ocasion estamos buscando incorporar un/a Ingeniero/a de Datos con experiencia en diseño, desarrollo y mantenimiento de pipelines de datos, capaz de trabajar con herramientas modernas del ecosistema analítico y de integración. El rol tendrá foco en la construcción de flujos de datos robustos, escalables y mantenibles, apoyando procesos de analítica, reporting y migraciones de datos

Exclusive offer from getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener pipelines de datos utilizando Python, dbt y Airflow.
  • Implementar procesos de transformación y modelado de datos analíticos.
  • Orquestar flujos de datos asegurando confiabilidad y trazabilidad.
  • Colaborar en iniciativas de migración e integración de datos.
  • Asegurar calidad, consistencia y disponibilidad de la información.
  • Documentar procesos y buenas prácticas técnicas.

Requerimientos del cargo

  • Python para desarrollo de pipelines y lógica de transformación.
  • dbt para modelado, transformación y versionamiento de datos analíticos.
  • Apache Airflow para orquestación y scheduling de procesos de datos.
  • SQL avanzado para consultas, transformaciones y validaciones.
  • Inglés nivel B2 (capacidad para comunicación técnica).

Opcionales

  • Experiencia en migraciones de datos entre sistemas.
  • Experiencia en integraciones de datos desde múltiples fuentes.
  • Buen entendimiento de arquitecturas de datos modernas (ELT / Analytics Engineering).
  • Experiencia en entornos productivos y manejo responsable de cambios.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $1500 - 2000 Tiempo completo
Live Events Data Analyst (Latam)
  • JegyTix
Data Analysis Excel E-commerce Inventory Management

LOCATION: Remote - Latin America (LATAM) Only

IMPORTANT NOTE: This is a commercial decision-making role for a spreadsheet-heavy analyst. We have the data and the spreadsheets ready for you. We are looking for a “Human Algorithm” to interpret that data and take action on our investments.

Overview

We are a specialized secondary market ticketing company dedicated to data-driven inventory acquisition and long-term partnership development with teams and venues.

We are looking for a data-driven professional to lead our inventory acquisition strategy. The role consists in identifying market trends, analyzing historical demand, consumer behavior and scaling our footprint across the live events space.

Apply directly on the original site at Get on Board.

Key Responsibilities

  • Market Analysis & Sourcing: Analyze historical sales data, venue seat maps and daily reports to identify buying opportunities and execute ticket purchases.
  • Investment Reporting: Calculate and report on key financial metrics including ROI, Net Profit Margins, and Break-Even Points for every potential ticket acquisition.
  • Portfolio Management: Monitor current inventory performance across secondary platforms and suggest price adjustments based on real-time supply changes.
  • Vendor Communication: Manage the 10% of the role focused on outreach (emailing/calling) sports teams or venues to execute wholesale ticket purchases and maintain professional partnerships.

Qualifications and Experience

We value analytical logic over specific industry experience. You are an ideal candidate if you possess:
  • Data Literacy & Navigation: Strong proficiency in Excel/Google Sheets. You can manipulate complex data sets to isolate high-ROI opportunities.
  • Financial Expertise: A strong grasp of key financial concepts including P&L, ROI, and Gross/Net Margins.
  • E-commerce/Product Background: You’ve worked in roles like Retail Buying, Category Management, or E-commerce Operations where you were responsible for choosing which products to stock.
  • Strategic Communication: You can build quick rapport with vendors and navigate wholesale discussions effectively.

Optional Skills

Prior experience in live events, sports, or ticketing domains is a plus but not required. Strong curiosity, self-motivation, and a bias toward action are highly valued.

Why Join Us?

  • Direct Partnership: No corporate layers; you work directly with the founder.
  • Flexible Paid Holidays: We offer a flexible holiday schedule based on your local calendar.
  • Performance-Based Bonus: This role includes an annual bonus structure tied directly to your performance.
  • 100% Remote: Work from anywhere with a fast internet connection.

Performance bonus Extra compensation is offered upon meeting performance goals.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1400 - 2000 Tiempo completo
Data Analyst / Data Engineer/Solution Architect
  • MAS Analytics
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence
En MAS Analytics creemos que los datos son el motor de la transformación empresarial. Nuestro equipo trabaja mano a mano con organizaciones líderes para convertir información en decisiones estratégicas, utilizando tecnologías de los players más importantes del mercado (AWS, Azure y GCP). Como parte de este equipo, tendrás la oportunidad de participar en proyectos que combinan ingeniería de datos, analítica avanzada y consultoría, en un entorno colaborativo donde la innovación y el aprendizaje continuo son parte del día a día.
Porque aquí no solo desarrollarás tecnología, sino también tu carrera. Te ofrecemos un espacio para crecer, aprender y participar en proyectos que marcan la diferencia en la transformación digital de las empresas. Serás parte de una cultura que valora la innovación, la colaboración y el impacto real.

Job opportunity published on getonbrd.com.

Funciones del cargo

Tu misión será dar vida a soluciones que permitan a nuestros clientes aprovechar al máximo el valor de sus datos. Participarás en la creación de pipelines que aseguren la integración y calidad de la información, diseñarás modelos de datos eficientes y colaborarás en la construcción de arquitecturas en entornos cloud como AWS, GCP o Azure.
Además, serás responsable de desarrollar reportes y dashboards que faciliten la toma de decisiones estratégicas.
Pero este rol va más allá de lo técnico: trabajarás directamente con los clientes, entendiendo sus necesidades, participando en el levantamiento de requerimientos y proponiendo soluciones que impacten en su negocio.
Serás parte de un equipo que no solo entrega tecnología, sino también confianza y valor.

Requerimientos del cargo

Queremos a alguien con hasta un año de experiencia en análisis o ingeniería de datos, con conocimientos en SQL, modelado de datos y herramientas de BI como Power BI o Tableau. Valoramos que tengas nociones en programación (Python o R) y experiencia básica en entornos cloud.
Más allá de lo técnico, buscamos una persona curiosa, proactiva y con habilidades para comunicarse con clientes, capaz de planificar y organizar su trabajo en proyectos dinámicos.
Si te apasiona aprender, resolver problemas y trabajar en equipo, este rol es para ti.

Condiciones

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs MAS Analytics covers some computer repair expenses.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1900 - 3000 Tiempo completo
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

This job is original from Get on Board.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero de Datos
  • BICE VIDA
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Applications at getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Ingeniero de Datos Junior para desempeñarse en el COE de Datos, perteneciente a la Gerencia de Planificación y Gobierno de Datos.
🧭 El objetivo del cargo es apoyar la construcción, mantenimiento y mejora de los procesos que permiten que los datos lleguen limpios, ordenados y disponibles para que la organización pueda analizarlos y tomar buenas decisiones.
💡Tendrás la oportunidad contribuir aprendiendo y aplicando buenas prácticas, colaborando con ingenieros senior y equipos de negocio, y asegurando que los datos fluyan de forma segura, confiable y eficiente dentro de la plataforma de datos📊.

📋 En este rol deberás:
  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Comprender conceptos fundamentales de ETL/ELT.
  • Validación básica de datos.
  • Identificar errores en ejecuciones o datos.

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 1 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas.
  • Experiencia trabajando en alguna nube (AWS, GCP, Azure)
  • Conocimiento en herramientas de consulta de datos, tales como SQL y Python (nivel intermedio).
  • Participación en proyectos relacionados a datos, independiente de la tecnología utilizada.

✨Sumarás puntos si cuentas con:

  • AWS
  • Terraform
  • Spark/Scala
  • Tableau
  • Github
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero de Datos Middle
  • BICE VIDA
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

This job is published by getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un/a Ingeniero/a de Datos Middle para integrarse al COE de Datos e IA, perteneciente a la Gerencia de Planificación y Gobierno de Datos.

🚀 Objetivo del cargo

Apoyar en el diseño e implementación de soluciones tecnológicas asociadas al manejo de datos que permitan fomentar el uso y la toma de decisiones basadas en datos a nivel compañía. a

Se espera que pueda liderar iniciativas dentro de la misma índole (datos) con el apoyo de un Ingeniero de Datos Senior o del Líder de Datos. Aplicar buenas prácticas de arquitectura y gobernanza, y colaborar con áreas de negocio, analítica y TI para habilitar un ecosistema de datos moderno, escalable y seguro ☁️📊

🔍 Principales funciones:

  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Asegurar el correcto uso de los servicios AWS en términos de usabilidad y costos.
  • Diseñar e implementar soluciones automatizadas que consideren los lineamientos de arquitectura y ciberseguridad de la compañía

✨ Si te motiva trabajar con datos, tecnología y generar impacto en el negocio, ¡te invitamos a postular y ser parte de BICE Vida!

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 3 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas y 2 años en AWS.
  • Conocimiento y experiencia trabajando en AWS (Intermedio o avanzado): A nivel práctico, no sólo académico, servicios como: Lambda Function, Glue Jobs (Spark y PythonShell), Glue Crawlers, DMS, Athena, Lake Formation, EventBridge, Step Functions.
  • Experiencia y conocimento en Herramientas de consulta de datos (SQL Intermedio o Avanzado y Python Intermedio o Avanzado) y versionamiento de códigos fuentes.
  • Participación en proyectos relacionados a datos ( Ingeniero de Datos p Analista de Datos trabajando en modelamiento de datos).

✨Sumarás puntos si cuentas con:

  • Terraform
  • Spark
  • Tableau
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2700 - 3500 Tiempo completo
Staff Data Analyst
  • Checkr
  • Santiago (Hybrid)
Data Analysis SQL Communication Data Modeling

Checkr está creando una plataforma de datos para facilitar la toma de decisiones seguras y justas. Fundada en 2014, la tecnología innovadora y la sólida plataforma de datos de Checkr ayudan a los clientes a evaluar riesgos y garantizar seguridad y cumplimiento normativo para crear lugares de trabajo y comunidades de confianza. Checkr cuenta con más de 100.000 clientes, entre los que se incluyen DoorDash, Coinbase, Lyft, Instacart y Airtable. Como Staff Data Analyst, trabajarás codo con codo con varios departamentos de la empresa para desarrollar modelos complejos y comunicar de forma eficaz su impacto en el negocio, garantizando que Checkr mantenga su posición de liderazgo en eficiencia, calidad y otras métricas clave identificadas por ti y las partes interesadas pertinentes. Esta función fundamental pertenece a la organización de la plataforma de datos y reportarás directamente al jefe de la plataforma de datos.

Apply only from getonbrd.com.

Responsabilidades del cargo

  • Colaborar con las partes interesadas de la empresa para obtener un profundo conocimiento de nuestros productos y clientes.
  • Comunicar de manera eficaz las conclusiones y recomendaciones de tu análisis a un público no técnico en todos los niveles de la organización.
  • Colaborar estrechamente con los propietarios de productos y los socios financieros para analizar el valor de las nuevas funciones, mejoras y proyectos.
  • Basándote en análisis exploratorios, crear perfiles de clientes y desarrollar métricas para informar las estrategias de precios y monetización.
  • Trabajar con ingenieros para desarrollar fuentes de datos y métricas básicas que puedan utilizar toda la empresa.
  • Evangelista de la experimentación: educar y promover una cultura basada en los datos a través de la experimentación.

Calificaciones y Requisitos del cargo

  • Más de cuatro años de experiencia en un puesto altamente analítico, con al menos tres años en un puesto de análisis de productos/ciencia de datos.
  • Competencia avanzada en SQL, así como comprensión de los principios del almacenamiento de datos, incluido el modelado de datos; se valorará la experiencia con dbt.
  • Excelentes habilidades analíticas y de resolución de problemas, con capacidad para identificar y priorizar oportunidades de crecimiento basadas en datos y resultados de experimentos.
  • Fuertes habilidades de comunicación escrita y verbal y capacidad para sintetizar soluciones analíticas complejas en conocimientos prácticos y comunicar el impacto empresarial a un público no técnico.
  • Persona con iniciativa demostrada y excelentes habilidades para establecer prioridades, capaz de llevar a cabo proyectos con un mínimo de orientación.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Analyst – Proyecto de Migración Digital
  • BC Tecnología
  • Lima (Hybrid)
HTML5 Python Data Analysis SQL
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un Data Analyst para formar parte de un proyecto estratégico de Migración Digital enfocado en evolucionar el canal digital del cliente BFPE. Participarás en el desarrollo, documentación y mejora continua de funcionalidades para una nueva plataforma web, como parte de la migración desde Telegestor APK. El rol combina desarrollo, transformación de datos y optimización de procesos para entregar un canal digital robusto y escalable.
El proyecto implica trabajo conjunto con equipos técnicos y funcionales para asegurar requisitos, calidad y despliegues eficientes. Serás parte de un equipo ágil, con enfoque en innovación y mejora continua, contribuyendo a una migración exitosa que impacta directamente la operación digital.

This posting is original from the Get on Board platform.

Funciones

  • Desarrollar nuevas funcionalidades para el canal digital utilizando Python y HTML5.
  • Participar en la transformación de datos y construcción de pipelines ETL.
  • Analizar, diseñar y documentar especificaciones técnicas y funcionales.
  • Implementar consultas y procesos de explotación de datos en SQL Server y BigQuery.
  • Gestionar control de versiones y despliegues con GitLab.
  • Colaborar con equipos técnicos y funcionales para asegurar el cumplimiento de los requisitos.
  • Participar en pruebas, validaciones y despliegue de mejoras.
  • Proponer mejoras que fortalezcan la plataforma digital.

Descripción

Buscamos un Data Analyst con 2 a 3 años de experiencia en roles similares, con capacidad para trabajar en un entorno regulado y centrado en datos. Requisitos técnicos demostrables: SQL Server, Python, BigQuery, ETLs, GitLab y HTML5. Se valorará experiencia en banca, finanzas o industrias altamente reguladas. El/la candidata ideal será analítico/a, orientado/a a la calidad de datos, con habilidades para documentar y comunicar hallazgos de manera clara, y capaz de colaborar eficazmente con equipos multifuncionales. Se ofrece una modalidad híbrida en Lima y la posibilidad de participar en un proyecto estratégico con impacto directo en el canal digital del cliente, dentro de un entorno de aprendizaje y desarrollo continuo.

Deseable

Experiencia previa en proyectos de migración de plataformas digitales y en entornos de alta seguridad de información. Conocimiento de herramientas de visualización (Power BI, Tableau) y metodologías ágiles. Experiencia en integración de datos entre sistemas legados y plataformas modernas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VER TRABAJO POSTULAR VÍA WEB