No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

Gross salary $1500 - 1800 Tiempo completo
Business Intelligence Analyst
  • Vemo México
  • Ciudad de México (Hybrid)
Python Data Analysis Excel SQL

¡Únete a VEMO y sé parte del futuro de la movilidad limpia!

Quiénes somos?

En VEMO, somos una empresa de electromovilidad impulsada por su gente y tecnología, que integra todo el ecosistema de movilidad limpia para México y América Latina. Nuestra misión es acelerar la adopción de soluciones de movilidad limpia, mejorando la calidad de vida urbana, preservando el medio ambiente y generando empleo sostenible de alto impacto.

¡Estamos comprometidos con una movilidad responsable, limpia e inteligente!

Applications: getonbrd.com.

Funciones del cargo

Propósito del Puesto
Recopilar, analizar e interpretar datos para ayudar a la empresa a tomar decisiones estratégicas informadas.

Principales Responsabilidades
- Análisis de datos avanzados de métricas clave de negocio.
- Elaboración de reportes escritos y presentación que faciliten la toma de decisiones de líderes de la empresa.
- Diseño de KPIs y elaboración de dashboards que faciliten el monitoreo del negocio.
- Optimización de modelos de datos que cataloguen clientes de negocio.
- Acompañamiento a negocio en iniciativas de alto impacto.

Requerimientos del cargo

Formación Académica
· Graduados universitarios de las carreras de Ingenierías, Económicas, Administración o Finanzas con experiencia en análisis de datos.

Experiencia Requerida
- Experiencia laboral en 3 años en entornos corporativos trabajando en equipo
- 3 años en Análisis de datos y presentación de resultados

Conocimientos Técnicos Clave
- Análisis de datos y visualizaciones con MS Excel - Avanzado
- Análisis de datos y visualizaciones con Python – Avanzado
- Análisis estadístico - Avanzado
- Elaboración de queries y vistas con SQL – Intermedio
-Storytelling con datos y preparaciones de presentaciones con MS Power Point – Avanzado
- Power BI o similar – Intermedio

Conditions

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Ingeniero de Datos
  • Compara
Python PostgreSQL Back-end Kafka

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. La empresa trabaja con productos como Seguro Automotriz, SOAP, Asistencias en Viaje, Crédito Hipotecario y Tarjeta de Crédito, ofreciendo a los usuarios una solución integral para tomar decisiones financieras informadas dentro del mercado latinoamericano.

Apply from getonbrd.com.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse basado en PostgreSQL y gestionar los pipelines de ingesta de datos que se encuentran en producción.
  • Liderar la transición hacia una arquitectura más moderna, basada en tecnologías como Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines para el procesamiento y transformación eficiente de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 2 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀 Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Data Analyst (Product)
  • TECLA
Analytics Data Analysis Growth Data Visualization
Tecla is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.
Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, Tecla is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

Find this vacancy on Get on Board.

Job Details:

We are seeking a Data Analyst (Product) to help our company grow smarter.
This role sits at the intersection of product analytics, monetization strategy, and partner success. As their Data Analyst (Product) you will own and drive how they define, measure, and improve the performance of their features (loyalty, checkout, missions), while also helping game studios understand what’s working — and what to do next — to maximize their results with the platform.

What You’ll Do:

For the product
  • Define success metrics and KPIs for new product features (e.g., VIP store, checkout incentives, mission rewards)
  • Take high-level guidance for a feature based on metrics, and manage the entire data and analytics portion independently.
  • Set up data visualization tools and perform measurements to evaluate the effectiveness of product features.
  • Build and maintain dashboards to track engagement, conversion, AOV, retention, and LTV.
  • Analyze feature performance across games and user segments to surface insights and optimizations.
  • Partner with PMs and Engineers to ensure instrumentation is complete and actionable.
  • Contribute to roadmap prioritization by identifying areas with the highest growth potential.

For our partners

  • Create studio‑specific insights reports and dashboards (e.g., funnel health, top offers, rank progression).
  • Surface actionable recommendations for improving adoption, conversion, or loyalty engagement.
  • Support Partner Success and BD teams with data‑driven narratives in business reviews.
  • Help define and evolve the KPI frameworks used with customers.

What You Bring:

  • 3+ years of experience with SQL and data reporting
  • 2+ years of experience in data analytics, growth marketing, or monetization strategy roles.
  • Fluency in tools like Looker, Amplitude, or Heap for data visualization and dashboard/reports for partner or customer use.
  • Business acumen and strong product sense — knows what good looks like and how to measure it; specific to web and e-commerce.
  • Excellent communicator who can translate data into clear stories and recommendations.
  • Comfortable collaborating cross‑functionally in a fast‑paced, high‑ownership environment.
  • Prior experience at a gaming studio, platform, ecommerce, or tools company.

Bonus:

  • Familiarity with A/B testing or offer optimization.
  • Understanding of VIP programs, behavioral segmentation, or mission systems in games.
  • Experience with game monetization and/or live ops systems (IAPs, segments, retention mechanics).

Work Schedule: Overlap with U.S. Standard working hours (PST - EST)

Benefits:

  • The opportunity to work on a cutting-edge platform in the exciting gaming industry.
  • A fully remote position with a structured schedule that supports work-life balance.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.
*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2400 Tiempo completo
Data Engineer
  • Wild Foods
  • Santiago (In-office)
JavaScript Python MySQL PostgreSQL
En Wild Foods perseguimos la excelencia a todo nivel. Buscamos al mejor talento para incorporarse a nuestro equipo de Transformación Digital. Un equipo joven, dinámico y lleno de desafíos. Si te interesa ser parte de una empresa innovadora y aprender en un entorno de alto rendimiento, anímate a postular!

Apply at getonbrd.com without intermediaries.

Funciones del cargo

¿Qué harás?
  • Diseñar y desarrollar soluciones ELT: Crear y mantener los procesos y flujos de datos necesarios para extraer datos de distintas fuentes, transformarlos según los requisitos de negocio y cargarlos en un almacén de datos centralizado.
  • Integración de múltiples plataformas: Establecer conexiones y configuraciones entre las diferentes plataformas, como Shopify, SAP, Facebook Ads, Google Ads y GCP, para garantizar la extracción y carga de datos de manera segura y eficiente.
  • Mantenimiento y optimización: Realizar tareas de monitoreo, mantenimiento y optimización de los flujos de datos existentes, identificando y solucionando posibles problemas o cuellos de botella que afecten el rendimiento del sistema.
  • Asegurar la calidad de los datos: Implementar y mantener controles de calidad para garantizar la integridad, precisión y consistencia de los datos que se están integrando desde las diferentes fuentes.
  • Data Governance: Implementar prácticas y controles de gobernanza de datos para garantizar la calidad, privacidad, seguridad y conformidad de los datos integrados. Establecer políticas y procedimientos para la gestión y uso adecuado de los datos, así como realizar seguimiento de cumplimiento normativo y resolución de problemas relacionados con la gobernanza de datos.

Requerimientos del cargo

¿Quién eres?
  • Una persona con sólidas habilidades analíticas y de resolución de problemas, capaz de identificar y solucionar problemas técnicos relacionados con la integración de datos, así como optimizar y mejorar los flujos de datos existentes.
  • Con excelentes habilidades de comunicación. Tendrás que comunicarte efectivamente con equipos multidisciplinarios, traduciendo los requisitos técnicos en términos comprensibles para el negocio.
  • Altamente proactivo y autónomo. En Wild Foods confiamos en el motor propio de cada miembro de nuestra organización.
Experiencia que traes:
  • Título universitario en Ingeniería Industrial, Informática o Comercial o carreras afín.
  • 1 a 3 años de experiencia.
  • Dominio de herramientas ELT: experiencia en el diseño y desarrollo de soluciones ELT utilizando herramientas y lenguajes como Google Dataflow, Airflow, Airbyte, DBT, Python, SQL, Javascript, entre otros.
  • Conocimientos en bases de datos: familiaridad con sistemas de gestión de bases de datos relacionales y no relacionales, como Google BigQuery, MySQL, PostgreSQL, MongoDB, etc.
  • Conocimientos de cloud computing: experiencia trabajando en entornos de computación en la nube, especialmente en Google Cloud Platform (GCP), y conocimientos de servicios como Google Cloud Storage, Google Pub/Sub, entre otros.
  • Inglés avanzado.

Condiciones

- Vacaciones ilimitadas
- Hasta un 60% de descuento en marcas Wild Brands
- Stock Options
- Día libre de cumpleaños
- Entre muchos otros!

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Wild Foods pays or copays health insurance for employees.
Computer provided Wild Foods provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Wild Foods gives you paid vacations over the legal minimum.
Beverages and snacks Wild Foods offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Especialista en GCP
  • Muruna
  • Lima (Hybrid)
Java Python Scala Business Intelligence

Muruna es una empresa chilena especializada en el sector financiero, enfocada en entregar soluciones tecnológicas y servicios de staffing altamente especializados. Nuestro portafolio incluye proyectos estratégicos que abordan la gestión y transformación de grandes volúmenes de datos, fundamentales para la toma de decisiones en organizaciones líderes del rubro financiero.

Este rol está orientado a la ingeniería de datos, con foco en la construcción, desarrollo y optimización de pipelines dentro del ecosistema Google Cloud Platform, asegurando la disponibilidad, calidad y continuidad de la información para los equipos de negocio y análisis.

En Muruna fomentamos un entorno de innovación, colaboración y mejora continua, donde el talento no solo aporta valor técnico, sino que también impulsa el éxito operativo y estratégico de nuestros clientes.

Apply to this job at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines robustos de ETL/ELT en Google Cloud Platform para transformar datos crudos en formatos analíticos optimizados.
  • Gestionar y optimizar bases de datos relacionales, Big Data, Data Lake y Data Warehouse, garantizando un almacenamiento eficiente y de alta disponibilidad.
  • Extraer y procesar datos de diversas fuentes internas y externas, asegurando la integridad, calidad y utilidad de la información para su análisis posterior.
  • Implementar procesos automatizados de limpieza, homologación y clasificación de datos para facilitar su análisis y visualización.
  • Automatizar el flujo de datos para mantener actualizaciones constantes y confiables en los sistemas de información.
  • Colaborar estrechamente con usuarios de negocio para entender sus requerimientos específicos y traducirlos en soluciones técnicas efectivas, aplicando principios de Business Intelligence y estrategias de datos para dashboards y reportes.
  • Procesar grandes volúmenes de datos utilizando herramientas de Big Data en la nube, principalmente en GCP y, de manera complementaria, en AWS.

Requisitos y conocimientos clave

Buscamos profesionales con formación universitaria en Ingeniería de Sistemas, Ingeniería de Software o carreras relacionadas, que cuenten con al menos 3 años de experiencia en la construcción e implementación de pipelines de datos en entornos Google Cloud Platform. Es fundamental que manejen servicios como Cloud Storage, DataFlow, BigQuery, BigTable, Pub/Sub, DataProc y Composer.

La certificación Data Engineer en GCP será una ventaja considerable, especialmente en candidatos con al menos un año de experiencia práctica en GCP. Se requiere experiencia sólida en Business Intelligence, entendiendo cómo aplicar estrategias de negocio para gestionar y analizar datos orientados a dashboards.

El dominio intermedio-avanzado de bases de datos SQL es imprescindible, así como experiencia de al menos 3 años en explotación y manipulación de bases de datos. Se valorará conocimiento básico en programación con Java y Python o Scala para el tratamiento y exposición de datos vía APIs.

Experiencia en ambientes cloud, principalmente GCP, con al menos un año de trabajo en estos entornos. Conocimientos en metodologías ágiles serán un plus importante para adaptarse al ritmo dinámico del equipo.

Además, buscamos candidatos que cuenten con habilidades destacadas en comunicación, análisis crítico, pensamiento estratégico, orientación a resultados y trabajo colaborativo en equipos multidisciplinarios. El nivel de inglés requerido es intermedio para interactuar en contextos técnicos y documentales.

Habilidades y conocimientos deseables

Se valorará especialmente contar con certificaciones oficiales de Google Cloud Platform en Data Engineering, experiencia previa con AWS y conocimientos avanzados en herramientas de Big Data como Apache Spark o Hadoop. Asimismo, la familiaridad con metodologías ágiles como Scrum o Kanban facilitará la integración y adaptación a los ciclos de desarrollo y despliegue.

Competencias blandas adicionales como iniciativa, proactividad para resolver problemas complejos y capacidad para trabajar en equipos interdisciplinarios distribuidos también serán muy bien valoradas.

Beneficios y ambiente laboral

  • 🎂 Medio día libre en tu cumpleaños + una Gift Card de $25 para que celebres a tu manera.
  • 📚 Certificaciones oficiales de Google (¡somos Partners!), para que sigas creciendo profesionalmente.
  • 🧠 Coaching profesional personalizado, para acompañarte en tu desarrollo y bienestar.
  • 📦 Día libre por mudanza, porque sabemos que cambiarse de casa requiere tiempo (y energía).
  • 👶 Bono por nacimiento, porque los grandes momentos merecen celebrarse.
  • 🇨🇱 Bonode Fiestas Patrias, para que disfrutes con todo el sabor local.
  • 😄 Bono por Referido.

Computer provided Muruna provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer – Microsoft Fabric (Lakehouse & Pipelines)
  • Improving South America
Git SQL Continuous Deployment Azure

Hola! somos Improving South America

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

This job is published by getonbrd.com.

Funciones del cargo

Estamos buscando un/a Data Engineer con experiencia para unirse a nuestro equipo de implementación de Microsoft Fabric. Este rol se enfoca en construir pipelines de datos sólidos y escalables, y en gestionar datos dentro de una arquitectura Lakehouse, aprovechando OneLake, tablas Delta y Fabric Dataflows. Serás responsable de la ingesta, transformación y curaduría de datos para apoyar casos de uso de analítica, aprendizaje automático e inteligencia de negocios cumpliendo las siguientes funciones:

Diseñar, desarrollar y mantener pipelines de datos utilizando Microsoft Fabric Data Factory, Spark Notebooks y Dataflows Gen2.

Implementar arquitectura Lakehouse utilizando tablas Delta Lake en OneLake.

Optimizar flujos de datos para rendimiento, escalabilidad y eficiencia en costos.

Construir patrones de ingesta automatizados y reutilizables para datos estructurados y no estructurados.

Gestionar la calidad de los datos, el linaje y la gobernanza mediante la integración con Microsoft Purview.

Colaborar con modeladores de datos, analistas y partes interesadas del negocio para asegurar que los pipelines respalden las necesidades semánticas y de reportes posteriores.

Requerimientos del cargo

  • 3+ años de experiencia en ingeniería de datos o desarrollo ETL.
  • Sólida experiencia en Azure Data Services (por ejemplo, Synapse, Data Factory) y componentes de Microsoft Fabric.
  • Dominio de PySpark, SQL y desarrollo basado en notebooks.
  • Experiencia con Delta Lake, Parquet y arquitectura medallion.
  • Familiaridad con prácticas de CI/CD, integración con Git y automatización de despliegues en Fabric.
  • Conocimiento práctico de herramientas de gobernanza y catalogación de datos (por ejemplo, Microsoft Purview).
  • Inglés intermedio avanzado o avanzado (Indispensable)
  • Disponibilidad de trabajar en un Proyecto inicial por 6 meses

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Engineer SSR
  • Improving South America
SQL Azure Power BI Cloud Computing

Hola! somos Improving South America.

Nacimos como una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Official source: getonbrd.com.

Funciones del cargo

Actualmente estamos en la búsqueda de un Data Analyst con experiencia que se quiera unir a Improving South America.
Buscamos personas con muchas ganas de aprender, de sumar y que tenga buen manejo del trabajo en equipo.
Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles) con un fuerte nivel de análisis para manejar troubleshooting en caso de errores de datos, entre otros en un proyecto de finanzas con alcance internacional para clientes de USA.
Se trabajará en el departamento de desarrollo de tecnología de la empresa.
El proyecto es con clientes en USA, pero trabajarás con nuestros equipos de Improving.
Será responsable de avanzar en los diferentes requerimientos del cliente, junto con su equipo.

Requerimientos del cargo

  • Contar con un nivel de inglés intermedio/avanzado (B2/C1). Excluyente.
  • +5 años de experiencia trabajando con SQL Server.
  • Experiencia práctica con Microsoft Fabric, Power BI y Data Flows.
  • Dominio de Azure Logic Apps y automatización en la nube.
  • Sólido conocimiento en modelado de datos, optimización del rendimiento e indexación.
  • Experiencia integrando datos desde múltiples fuentes, incluyendo APIs y almacenamiento en la nube.

Nice to have

  • Experiencia con Azure Data Factory, Synapse Analytics y Dataverse.
  • Familiaridad con Python o PowerShell para automatización.
  • Conocimiento de prácticas DevOps y CI/CD para canalizaciones de datos.
  • Certificaciones de Microsoft (por ejemplo, Azure Data Engineer Associate, Certificación en Power BI).
  • Experiencia en almacenamiento de datos (Data Warehousing) y ciencia de datos.

Beneficios

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2700 Tiempo completo
Data Engineer Semi Senior
  • TCIT
  • Santiago (In-office)
Git SQL Cloud Computing Google Cloud Platform
En TCIT, somos líderes en el desarrollo de software en modalidad Cloud, con la misión de transformar digitalmente organizaciones a través de soluciones sostenibles e innovadoras. Nuestro equipo está compuesto por profesionales apasionados y enfocados en generar un impacto positivo. Hemos trabajado en proyectos variados, desde sistemas de gestión agrícola hasta soluciones específicas para la industria judicial. Actualmente colaboramos con importantes partners tecnológicos en ambiciosos proyectos en países como Canadá.

This job is exclusive to getonbrd.com.

Dentro de las principales funciones se destacan:

  • Serás responsable de entregar soluciones eficientes, robustas y escalables en GCP. Tu rol implicará:
  • Diseñar, construir y mantener sistemas de procesamiento de datos escalables y de alto rendimiento en GCP.
  • Desarrollar y mantener pipelines de datos para la extracción, transformación y carga (ETL) de datos desde diversas fuentes en GCP.
  • Implementar soluciones para el almacenamiento y procesamiento eficiente de grandes volúmenes de datos utilizando las herramientas y servicios de GCP.
  • Colaborar con equipos multidisciplinarios para entender los requisitos y diseñar soluciones adecuadas en el contexto de GCP.
  • Optimizar el rendimiento de los sistemas de procesamiento de datos y garantizar la integridad de los datos en GCP.

Habilidades requeridas:

  • Fuerte comprensión de conceptos de bases de datos y modelado de datos.
  • Competencia en SQL, experiencia en el diseño y optimización de consultas.
  • Experiencia implementando y manteniendo soluciones y arquitecturas Cloud.
  • Experiencia en construcción y mantenimiento de Arquitecturas y Pipelines de datos.
  • Habilidades de resolución de problemas.
  • Pensamiento analítico y crítico.
  • Conocimiento de seguridad de datos y cumplimiento normativo en GCP (deseable).
  • Experiencia con herramientas de control de versiones como Git.
  • Conocimiento y experiencia del ciclo de implementación de metodologías ágiles.

Experiencia requerida:

  • Profesional titulado en informática, ingeniería, estadística o matemáticas.
  • Inglés nivel B2 intermedio/avanzado (Excluyente).
  • 3 o más años de experiencia práctica en Data Engineering en GCP.
  • Certificaciones en Google Cloud Platform (GCP) para Data Engineer.
  • Experiencia sobre Apache Spark, Hadoop en el contexto de GCP.
  • Experiencia en consumo de datos mediante servicios de GCP como Pub/Sub, BigQuery, Dataflow, Dataproc, Cloud run.
  • Conocimiento de Ejecuciones de servicios GCP mediante Google Cloud SDK.
  • Experiencia en Modelado de Datos con DBT.
  • Experiencia en el uso de lenguajes de programación como Python, Java o Scala para el desarrollo de pipelines de datos en GCP.
  • Experiencia construyendo código con shell scripting para la ejecución automatizada de flujos de datos
  • Experiencia con herramientas de orquestación, administración de flujos y monitoreo como Airflow ó Control-M
  • Experiencia trabajando con herramientas de seguimiento de metodologías ágiles (Scrum, Kanban, Lean, etc.) (deseable)

Condiciones

En TCIT, garantizamos un ambiente laboral enriquecedor con:
  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉
¡Esperamos que te unas a la revolución digital de TCIT y a nuestra apasionada comunidad!

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Promarketing
Python SQL Business Intelligence Power BI

Promarketing Chile es una empresa de desarrollo de software especializada en soluciones web escalables e innovadoras, utilizando tecnologías de vanguardia para impulsar la transformación digital, optimizar procesos y destacarse en el mercado.

Contamos con profesionales altamente capacitados y fomentamos un espacio de trabajo colaborativo y orientado al crecimiento tecnológico de nuestros colaboradores y del negocio.

¡Queremos que te unas a nuestro equipo como Data Engineer!

🚀 Sobre el desafío:

En Promarketing Chile queremos elevar la retención de usuarios y aumentar el valor promedio de los depósitos, y para eso buscamos un perfil que combine ingeniería de datos, pensamiento estratégico y visión centrada en el usuario.

Find this job on getonbrd.com.

Funciones del cargo

  • Diseñar y optimizar el Customer Journey basado en datos reales de comportamiento, desde el registro hasta la retención o abandono.
  • Implementar y mantener flujos de datos eficientes desde múltiples fuentes (CRM, pagos, sesiones).
  • Automatizar el análisis del comportamiento de usuarios y segmentación por valor y riesgo de abandono.
  • Crear dashboards interactivos (Power BI o similares) para visualizar KPIs críticos de conversión, depósitos y retención.
  • Proponer e implementar integraciones de APIs externas que mejoren el análisis de usuarios.
  • Colaborar con los equipos de marketing y TI para tomar decisiones basadas en datos.

Requerimientos del cargo

  • Experiencia de 2+ años en ingeniería de datos, análisis o BI.
  • Dominio de SQL (queries complejas, segmentación, cohortes).
  • Dominio de Python
  • Conocimiento práctico en Power BI, Looker o similares.
  • Conocimiento en GTM y GA4
  • Experiencia diseñando o implementando Customer Journeys con base en datos.
  • Capacidad de traducir datos en acciones estratégicas y recomendaciones claras.

Opcionales

  • Deseable: experiencia con herramientas como dbt, Fivetran, BigQuery, Segment, Airflow.
  • Experiencia previa o interés en el sector de casinos online, gaming, fintech o ecommerce.

Condiciones

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un entorno de trabajo flexible y dinámico.
  • Día libre para tu cumpleaños.
  • Trabajo 100% Remoto
  • 40 Hora de trabajo semanales

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Data Engineer
  • Moventi
Python Analytics SQL Web server
Moventi is a forward-thinking technology company dedicated to empowering organizations to lead in their industries through innovation and advanced technology solutions. Our work culture encourages transparency, teamwork, and continuous learning. We operate from a centrally located office offering modern collaborative spaces, including agile meeting tables and recreational areas, fostering a vibrant and supportive environment. The Senior Data Engineer will join a multidisciplinary team working on transformative projects in healthcare technology and software services, enabling data-driven decision making that positively impacts healthcare outcomes and technological advancements within our clients' businesses.

This job offer is on Get on Board.

Role and Responsibilities

As a Senior Data Engineer at Moventi, you will be a key player in architecting, developing, and maintaining scalable data pipelines and infrastructure. Your responsibilities will include:
  • Designing and implementing robust ETL/ELT pipelines using SQL, Python, and Airflow to process large volumes of complex data efficiently.
  • Managing and optimizing data storage and processing frameworks, particularly leveraging Snowflake's cloud data platform for high performance and scalability.
  • Collaborating closely with data scientists, analysts, and stakeholders to translate business needs into effective data solutions.
  • Developing and maintaining data visualization tools and dashboards using Tableau to provide actionable insights to business users.
  • Ensuring data quality, security, and governance best practices are implemented and monitored.
  • Mentoring junior data engineers and sharing knowledge to enhance team capabilities.
Your role is vital to transforming raw data into meaningful analytics deliverables that drive strategic business decisions and innovation within healthcare technology and software service domains.

Requirements and Qualifications

We are looking for a Senior Data Engineer with the following expertise and skills:
  • 5+ years of professional experience in data engineering or analytics engineering roles
  • Proven expertise with Snowflake (data modeling, performance optimization, security)
  • Strong proficiency in Python for data processing and automation
  • Hands-on experience with Apache Airflow for the orchestration of workflows
  • Proficiency in SQL with experience in optimizing queries and data transformations
  • Experience developing data visualizations using Tableau
  • Familiarity with healthcare technology, software services, or tech-enabled analytics platforms
  • Excellent communication skills and experience working with multidisciplinary stakeholders
  • Comfortable working autonomously and capable of delivering high-quality work independently
  • Previous exposure to remote-first work environments; adaptable and collaborative

Desirable Skills and Experience

Preferred additional skills include:
  • Experience with other cloud platforms such as AWS, Azure, or GCP.
  • Knowledge of containerization tools like Docker and orchestration platforms such as Kubernetes.
  • Familiarity with machine learning pipelines and collaboration with data science teams.
  • Understanding of healthcare data standards (e.g., HL7, FHIR) and data privacy regulations like HIPAA or GDPR.
  • Participation in open-source data engineering projects or community involvement.

Why Join Moventi?

  • Continuous opportunities for professional growth and ongoing learning within a multidisciplinary environment.
  • Flexible remote work options, enabling you to balance work and personal life effectively.
  • Participation in highly challenging projects that encourage innovation and skill development.
  • A positive and collaborative company culture based on transparency, commitment, and innovative thinking.
  • Central office location with modern facilities including parking and recreational areas, ideal for hybrid work if preferred.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Data Pipelines Cloud
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Data Analysis Excel
En BC Tecnología, una consultora especializada en servicios IT con más de 6 años de experiencia, diseñamos y ejecutamos soluciones tecnológicas a medida para clientes en sectores como financieros, seguros, retail y gobierno. Nuestro enfoque está en metodologías ágiles, cambio organizacional y desarrollo de productos innovadores. Como parte del equipo de datos, trabajarás en proyectos de modernización y optimización de ductos de datos en entornos cloud, colaborando con áreas de infraestructura y desarrollo para potenciar la gestión de datos en importantes clientes del área retail y otros sectores clave.

Apply without intermediaries through Get on Board.

Responsabilidades principales

Entre las funciones principales del rol se incluyen:
  • Diseñar, construir y mantener pipelines de datos eficientes y escalables en entornos cloud, preferentemente en AWS.
  • Colaborar en la ingesta, transformación y carga de datos provenientes de diversas fuentes internas y externas.
  • Trabajar junto a un líder técnico en iniciativas de modernización y mejora continua de los sistemas de datos.
  • Implementar soluciones técnicas alineadas con los lineamientos de arquitectura y estrategia de datos corporativa.
  • Interpretar y traducir requerimientos de negocio relacionados con datos en conjunto con analistas y desarrolladores para ofrecer soluciones que aporten valor.
  • Apoyar en la documentación técnica y seguimiento de buenas prácticas en desarrollo de pipelines.

Requisitos y experiencia requerida

Buscamos un profesional con experiencia práctica en proyectos relacionados con datos y pipelines en ambientes cloud, con capacidad para integrarse rápidamente a equipos multidisciplinarios. Es fundamental contar con:
  • Experiencia íntima con herramientas de visualización de datos, destacando Power BI y Metabase, que permitan el análisis y presentación clara de información.
  • Manejo intermedio de Excel para análisis de datos y manipulación básica.
  • Fuerte manejo en computación en la nube, idealmente con AWS, y servicios como Glue, Airflow y Redshift para orquestación, transformación y almacenamiento de datos.
  • Dominio de bases de datos SQL y/o NoSQL, para consulta, modelamiento y optimización del acceso a datos.
  • Conocimientos en lenguajes de programación como Python o Java, utilizados para desarrollo y automatización en la ingeniería de datos.
  • Experiencia previa en el rubro retail, entendiendo sus particularidades y necesidades en el manejo de datos.
  • Disponibilidad para trabajar en modalidad híbrida desde Chile, con flexibilidad para combinar trabajo remoto y presencial.
Valoramos habilidades blandas como colaboración, comunicación efectiva, orientación al detalle y capacidad de adaptación a entornos dinámicos y multidisciplinarios.

Habilidades y conocimientos deseables

Además, será altamente valorado que el candidato cuente con:
  • Experiencia en otras plataformas cloud además de AWS, como Azure o Google Cloud.
  • Conocimientos en frameworks y herramientas de orquestación de flujos de datos adicionales a Airflow.
  • Capacidad para diseñar arquitecturas de datos escalables y resilientes.
  • Conocimientos en seguridad y gobernanza de datos para garantizar integridad y cumplimiento normativo.
  • Experiencia previa en metodologías ágiles y trabajo colaborativo con equipos multifuncionales.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 1700 Tiempo completo
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Applications at getonbrd.com.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

Conditions

Life insurance Zerviz Technologies pays or copays life insurance for employees.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Dental insurance Zerviz Technologies pays or copays dental insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Ingeniero de Datos
  • Devsu
  • Quito (Hybrid)
Java Python SQL NoSQL

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de US y Latinoamérica en diferentes industrias como banca y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales.

Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. Se valorará la capacidad de liderar y colaborar con equipos multidisciplinarios para acelerar el cumplimiento de objetivos.

Es una posición híbrida en la ciudad de Quito-Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Apply without intermediaries from Get on Board.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.

Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Arquitecto de Datos
  • Devsu
  • Quito (In-office)
Python SQL Business Intelligence Virtualization

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de US y Latinoamérica en diferentes industrias como banca y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales.

Buscamos un profesional con sólida experiencia técnica y capacidad estratégica para liderar la evolución y arquitectura de productos digitales en el sector financiero.

Buscamos un Arquitecto de Datos con sólida experiencia en la plataforma Stratio y ecosistemas de datos sobre (AWS).

Es una posición remota si vives en Latam y presencial si vives en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Apply directly from Get on Board.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en NRT y por lotes utilizando Spark.
  • Diseñar y evolucionar arquitecturas de datos utilizando Stratio Data Fabric.
  • Construir y optimizar pipelines de datos en AWS: ingestión, transformación, almacenamiento y exposición.
  • Implementar políticas de seguridad, calidad y gobierno de datos.
  • Colaborar con equipos de desarrollo, analítica y DevOps para garantizar la integración continua y despliegues eficientes.
  • Documentar arquitecturas, modelos de datos y decisiones técnicas clave.
  • Liderar la toma de decisiones sobre herramientas, patrones y estándares tecnológicos.

Requerimientos del cargo

  • 5+ años de experiencia en arquitectura de datos.
  • Experiencia real con Stratio Platform: configuración, virtualización, gobierno de datos, etc.
  • Experiencia sólida en AWS: S3, Glue, Redshift, Lambda, Athena, Kinesis, EMR, IAM.
  • Conocimiento en arquitecturas orientadas a eventos, datos en tiempo real, Data Lakes y Lake Houses.
  • Experiencia con Terraform o CloudFormation para infraestructura como código.
  • Conocimiento de lenguajes como Python, SQL y frameworks tipo Spark / PySpark.

Deseables:

  • Certificaciones AWS (ej. Data Analytics, Solutions Architect).
  • Experiencia previa en banca, seguros o telcos.
  • Experiencia en herramientas de visualización (Power BI, Looker, Tableau).

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos
  • BC Tecnología
Java C Python SQL
En BC Tecnología somos una consultora especializada en servicios de IT, con fuerte expertise en diferentes áreas tecnológicas. Nuestra organización se dedica a administrar portafolios, desarrollar proyectos e implementar soluciones a medida, además de realizar outsourcing y selección de profesionales para clientes destacados en sectores como servicios financieros, seguros, retail y gobierno. La posición de Ingeniero de Datos se enmarca dentro de proyectos innovadores enfocados en la transformación digital y optimización de procesos mediante el aprovechamiento de datos. Trabajamos con metodologías ágiles para diseñar soluciones que se adaptan a las necesidades específicas de cada cliente, creando equipos multidisciplinarios con un fuerte enfoque en colaboración, calidad y entrega continua.

Apply to this posting directly on Get on Board.

Responsabilidades del Ingeniero de Datos

El Ingeniero de Datos será responsable de diseñar, implementar y mantener procesos ETL (Extract, Transform, Load) para la ingesta y procesamiento de grandes volúmenes de datos provenientes de diversas fuentes. Deberá garantizar la integridad y calidad de los datos, facilitando su disponibilidad para análisis y reportes.
Sus tareas principales incluirán:
  • Construir y administrar almacenes y lagos de datos escalables y seguros.
  • Automatizar flujos de datos mediante herramientas y tecnologías específicas del ecosistema Microsoft Azure, como Data Lake, Data Factory y Databricks.
  • Colaborar con equipos de analistas, científicos de datos y desarrolladores para entender necesidades y entregar soluciones ajustadas.
  • Implementar monitoreo y optimización de pipelines de datos para garantizar eficiencia y rendimiento.
  • Documentar procesos y arquitecturas de datos para mantener buenas prácticas y facilitar la transferencia de conocimiento.

Requisitos y habilidades técnicas

Buscamos profesionales con hasta 3 años de experiencia en ingeniería de datos, con un perfil orientado al desarrollo y operación de plataformas de datos. Es fundamental tener conocimiento avanzado en SQL y experiencia práctica con lenguajes de programación orientados a datos como C# y Java, mientras que Python y PySpark son habilidades deseables que aportan valor agregado a la posición.
Se requiere experiencia comprobable en el diseño y ejecución de procesos ETL, así como en la administración y manejo de almacenes de datos (data warehouses). La familiaridad con herramientas de visualización como Power BI es necesaria; conocimientos en Tableau son un plus.
Se valoran conocimientos y experiencia en servicios de nube, especialmente Azure Data Lake, Azure Data Factory y Databricks, lo que permitirá implementar soluciones modernas y escalables.
Además, se considerará positivamente la comprensión de aspectos del negocio relacionados con ingresos, precios y tarifarios, especialmente en sectores como retail, telecomunicaciones o aerolíneas, donde el análisis de estos datos es crítico.
La formación requerida es técnica o profesional en carreras afines a TI, preferentemente con certificaciones o cursos especializados en plataformas Microsoft Azure y tecnologías de ingeniería de datos.
Competencias blandas imprescindibles incluyen capacidad para trabajar en equipo, buena comunicación, adaptabilidad, proactividad y orientación a resultados.

Conocimientos deseables

  • Experiencia con lenguajes de scripting para automatización de procesos.
  • Conocimiento de arquitecturas Big Data y herramientas asociadas.
  • Familiaridad con librerías de Python para ingeniería de datos o ciencia de datos.
  • Habilidades en visualización avanzada con Tableau o herramientas similares.
  • Certificaciones adicionales en Microsoft Azure o plataformas similares de nube.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional mediante la integración y el intercambio de conocimientos entre equipos.
Ofrecemos una modalidad híbrida de trabajo desde nuestras oficinas en Las Condes, favoreciendo la flexibilidad para combinar el trabajo remoto con la colaboración presencial, lo que permite un mejor equilibrio entre vida personal y laboral.
Formarás parte de proyectos innovadores con clientes de alto nivel y en sectores diversos, en un entorno inclusivo que respeta la diversidad y fomenta el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3400 - 4400 Tiempo completo
Senior Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Ruby Python SQL
Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de seleccionar a los solicitantes de empleo. Fundada en 2014, Checkr pone la tecnología moderna impulsada por el aprendizaje automático en manos de los equipos de contratación, ayudando a contratar a grandes nuevas personas con una experiencia que es rápida, suave y segura. Checkr tiene más de 100.000 clientes, entre ellos DoorDash, Coinbase, Lyft, Instacart y Airtable.
Buscamos un Ingeniero de Datos Senior con experiencia para que se incorpore a nuestro equipo de operaciones de datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene los sistemas que realizan verificaciones de antecedentes precisas y eficientes.
Como ingeniero de datos sénior del equipo de operaciones de datos, trabajarás en proyectos de gran impacto que contribuyen directamente a la funcionalidad principal de los servicios de verificación de antecedentes de Checkr.

Apply to this job at getonbrd.com.

Responsabilidades del cargo

  • Crear y mantener canales de datos y conjuntos de datos fundamentales para satisfacer las necesidades del producto y del negocio.
  • Diseñar y construir arquitecturas de bases de datos con datos masivos y complejos, equilibrando la carga computacional y el coste.
  • Desarrollar auditorías para la calidad de los datos a gran escala, implementando alertas según sea necesario.
  • Crear paneles de control y informes escalables para apoyar los objetivos empresariales y permitir la toma de decisiones basada en datos.
  • Solucionar y resolver problemas complejos en entornos de producción.
  • Trabajar en estrecha colaboración con los gestores de productos y otras partes interesadas para definir e implementar nuevas funciones.

Calificaciones y Requisitos del cargo

  • Más de 5 años de experiencia en desarrollo de software full-stack.
  • Gran dominio de al menos uno de los siguientes lenguajes: Ruby (preferible), Python o Golang.
  • Experiencia en el procesamiento de datos a gran escala, tanto por lotes como en streaming.
  • Sólidos conocimientos de sistemas de bases de datos, tanto SQL como NoSQL.
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake, AWS Glue, Athena y S3.
  • Experiencia con ETL/ELT, procesamiento de datos en streaming y por lotes a gran escala.
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Experiencia con arquitectura de microservicios y API RESTful.
  • Fuertes habilidades para resolver problemas y atención al detalle.
  • Habilidades avanzadas de comunicación en inglés y capacidad para trabajar en un entorno colaborativo.

Competencias Deseables

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Datos SEO
  • WiTi
Python Analytics SEO SEM
Nos dedicamos al desarrollo de software y soluciones tecnológicas. Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles. Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.

Applications are only received at getonbrd.com.

Funciones del cargo

Serás la voz de los datos dentro del equipo SEO Regional: diseñarás y mantendrás dashboards en Looker Studio para exponer el rendimiento orgánico, analizarás a fondo métricas de tráfico, rankings y conversión en GA4 y Search Console, y escudriñarás logs del servidor y herramientas SEO como SEMrush o Ahrefs para detectar oportunidades técnicas. Convertirás hallazgos complejos en historias claras y accionables para audiencias técnicas y de negocio, colaborando estrechamente con Analítica Digital y Business Intelligence para integrar nuevas fuentes de datos y garantizar una visión 360° del cliente. Tu trabajo guiará decisiones estratégicas, acelerará el crecimiento orgánico regional y demostrará, con evidencia, el impacto comercial de cada iniciativa.

Requerimientos del cargo

3 – 5 años de experiencia total en analítica digital, business intelligence o SEO; mínimo 2 años aplicando análisis de datos a SEO o marketing digital.
Certificaciones deseables en Google Analytics 4 y herramientas de visualización; posgrados en Business Analytics, Data Science o Marketing Digital son un plus.
Dominio avanzado de:
  • Google Analytics 4
  • Google Search Console
  • Google Looker Studio / Power BI / Tableau
  • Excel / Google Sheets (tablas dinámicas, funciones avanzadas)
Nivel intermedio-avanzado de SQL para consulta de bases de datos.
Deseable manejo de herramientas SEO (SEMrush, Ahrefs, Moz), conocimientos de Python y uso de APIs de plataformas SEO.

Competencias clave

  • Pensamiento analítico y cuantitativo
  • Data storytelling
  • Influencia y colaboración
  • Visión de negocio
  • Atención rigurosa al detalle.

Condiciones

En WiTi, ofrecemos un entorno de trabajo 100% remoto, lo que permite una gran flexibilidad y autonomía. Además, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:
  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.
Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Fully remote You can work from anywhere in the world.
Internal talks WiTi offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Education stipend WiTi covers some educational expenses related to the position.
Personal coaching WiTi offers counseling or personal coaching to employees.
Conference stipend WiTi covers tickets and/or some expenses for conferences related to the position.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1700 Tiempo completo
Analista Business Intelligence
  • Global Mobility Apex, S.A.
Python Git Data Analysis SQL

En Global Mobility Apex, S.A., una corporación multinacional de bebidas y alimentos con más de 15,000 colaboradores y presencia en más de 14 países, buscamos fortalecer nuestra estrategia dinámica de expansión y crecimiento a través del talento. La empresa se ha dividido en cuatro unidades de negocio: Apex (transformación), CBC (distribución), Beliv (innovación en bebidas) y BIA (alimentos), enfocadas en liderar el mercado con amplia experiencia y socios estratégicos como PepsiCo y AB InBev.

El equipo tecnológico desempeña un papel fundamental en la construcción de soluciones innovadoras y escalables que soportan este crecimiento global y la transformación digital de la compañía.

Opportunity published on Get on Board.

Responsabilidades

  • Trabajar con el equipo de Business Intelligence (BI) y de Ingeniería de Datos para desarrollar soluciones de reportería, lo cual incluye la recolección, modelado y presentación de datos relevantes para la toma de decisiones de los equipos de gestión y Product Owners de los casos de uso digitales.
  • Comunicar hallazgos y recomendaciones derivados del análisis de los datos de manera efectiva a los equipos de gestión y Product Owners de los casos de uso digitales.
  • Ayudar en el mantenimiento de las soluciones ya existentes y las nuevas que se implementen dentro del equipo de BI.
  • Asistir en el soporte de incidencias de las soluciones ya existentes y las nuevas que se implementen dentro del equipo de BI.

Requisitos del puesto

  • Licenciatura en ingeniería o carrera afín
  • Uso de herramientas de visualización, particularmente Power BI
  • Conocimiento de SQL y Python
  • Experiencia en desarrollo de proyectos de reportería
  • Conocimiento básico de metodología ágil
  • Conocimiento de sistemas de control de versión como Git (deseable)
  • Conocimiento de herramientas como Tabular Editor y Power Automate (deseable)

Beneficios

  • Ambiente de trabajo colaborativo y dinámico.
  • Desarrollo profesional continuo y oportunidades de crecimiento.
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Global Mobility Apex, S.A. pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en SEO Técnico y Data & Reporting
  • Adecco
  • Santiago (Hybrid)
Python SEO SEM Data Analysis

Adecco es la empresa líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en Chile y una extensa red de más de 25 sucursales en las principales ciudades del país. Su compromiso con la calidad y la adaptación a las necesidades específicas de cada cliente, sumado a la certificación bajo norma ISO 9001:2015, posiciona a Adecco Chile como referente en soluciones integrales en selección, staffing, payroll y capacitación en diversos sectores industriales. Este rol forma parte de un proyecto estratégico de nuestro cliente enfocado en optimizar el canal orgánico de las plataformas digitales de Adecco y sus clientes, a través de la implementación y mantenimiento de infraestructura avanzada para el análisis y reporte de SEO y datos asociados. El equipo responsable impulsa la toma de decisiones basada en datos precisos que favorecen el crecimiento y la mejora continua del posicionamiento orgánico regional.

Find this job on getonbrd.com.

Responsabilidades principales

  • Desarrollar y mantener dashboards y reportes de SEO que integren indicadores clave como tráfico web, rankings y conversiones.
  • Realizar análisis cuantitativos profundos para identificar tendencias, oportunidades de crecimiento y posibles áreas de mejora en el canal orgánico.
  • Ejecutar diagnósticos técnicos mediante el análisis de datos de rastreo y logs del servidor para detectar problemas que impactan el rendimiento SEO.
  • Comunicar de forma clara y efectiva los hallazgos mediante data storytelling, adaptando la presentación a audiencias técnicas y no técnicas.
  • Integrar datos SEO con otras fuentes de información del negocio en colaboración con el equipo de Business Intelligence, asegurando una visión holística.
  • Coordinar con el equipo de Analítica Digital para validar la correcta medición y etiquetado de los datos mediante herramientas como GA4 y Google Tag Manager.
  • Colaborar transversalmente con áreas de BI, Desarrollo/TI y marketing para alinear las iniciativas de SEO con los objetivos de negocio.

Requisitos del cargo

Buscamos un profesional con formación en Ingeniería Comercial, Civil Industrial, Informática, Estadística, Data Science o carreras afines con enfoque cuantitativo. Se requiere una experiencia total de 3 a 5 años en análisis digital, inteligencia de negocio o SEO, con un mínimo de 2 a 3 años enfocados específicamente en análisis de datos aplicados a SEO o marketing digital.

Es deseable contar con certificaciones en Google Analytics 4 y plataformas de visualización de datos, así como estudios avanzados como diplomados o magísteres en Business Analytics, Data Science o Marketing Digital.

En el plano técnico, es fundamental un dominio avanzado de Google Analytics 4, Search Console, Looker Studio (o Power BI/Tableau) y Excel/Google Sheets. También se valorará conocimiento intermedio-avanzado de SQL y experiencia con herramientas SEO como SEMrush, Ahrefs o Moz. Conocimientos de Python y gestión de APIs SEO son un plus.

El candidato debe poseer un nivel de inglés intermedio-alto para comunicarse eficazmente con stakeholders regionales y acceder a documentación técnica.

Se valoran competencias como pensamiento analítico y cuantitativo, habilidades para contar historias con datos (data storytelling), capacidad de influencia y colaboración interdisciplinaria, orientación al impacto de negocio, y atención minuciosa al detalle en análisis y reportes.

Competencias y habilidades deseables

Se considerarán positivamente conocimientos adicionales en programación con Python para automatización y análisis avanzado de datos. Familiaridad con metodologías ágiles de trabajo y experiencia en coordinación de proyectos multidisciplinarios.

También es deseable tener experiencia en ambientes regionales y multilingües, así como habilidades interpersonales para comunicar resultados a distintos niveles jerárquicos y equipos técnicos y no técnicos. La capacidad para adaptarse a entornos dinámicos y gestionar prioridades en colaboración con diversas áreas complementará el perfil requerido.

¿Qué te ofrecemos?

Nuestro cliente ofrecemos un ambiente laboral desafiante y dinámico que impulsa tu desarrollo profesional y personal. Trabajarás con un equipo altamente capacitado y profesional que favorece la colaboración y el aprendizaje constante.

Dispondrás de formación continua para mantenerte actualizado en las últimas tecnologías y tendencias del sector.

Contarás con oportunidades reales de crecimiento dentro de la empresa y del sector tecnológico, con contratos inicialmente a plazo fijo y posteriormente indefinidos con el cliente final.

Tu modalidad de trabajo será híbrida, con tres días remotos y dos presenciales en nuestra oficina ubicada en la comuna de Las Condes, Santiago.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2600 Tiempo completo
Data Integration Engineer
  • Inetum
  • Lima (Hybrid)
Python Agile SQL Linux

Somos Inetum, una compañía de servicios ágiles que proporciona soluciones digitales y un grupo global de tecnólogos que acompaña a sus clientes. Ofrecemos a nuestros clientes una combinación única de proximidad, organización sectorial y soluciones de calidad. Presente en más de 26 países, el grupo tiene cerca de 27,000 colaboradores y apunta a seguir creciendo.

This job is original from Get on Board.

¿Cuáles serán tus funciones?

  • Diseñar, desarrollar y optimizar procesos de integración de datos en entornos on-premise (Oracle) y Cloud (Azure) y la migración e integración entre ellos.
  • Implementar y gestionar procesos batch y real-time, garantizando eficiencia y escalabilidad en la ejecución.
  • Desarrollar soluciones con SQL, PySpark/Spark, aplicando buenas prácticas de programación y optimización.
  • Orquestar flujos de datos mediante herramientas como el orquestador en Mainframe, Data Factory.
  • Automatizar procesos de datos para mejorar la eficiencia operativa y reducir tiempos de procesamiento.
  • Optimizar el rendimiento y los costos de servicios en Azure, asegurando el uso eficiente de los recursos en la nube.
  • Integrar los pipelines de datos con aplicaciones y microservicios, facilitando la interoperabilidad dentro del ecosistema bancario.
  • Colaborar con equipos de negocio y tecnología para garantizar la calidad y disponibilidad de los datos.

¿Cuáles son los requisitos para la posición?

  • Profesional de Ingeniería de Sistemas, Informática, Ciencias de la Computación u otras carreras afines.
  • Experiencia con lenguajes Python, PLSQL, PySpark (SparkSQL / Spark Dataframes), SQL. (mandatorio).
  • Experiencia en Tuning y optimización de procesos distribuidos, Shell Scripting y Comandos Linux / Unix. (mandatorio)
  • Experiencia en Cloud Azure y Databricks (Notebooks, Repos, Cluster Management, Unit Catalog) (mandatorio)
  • Experiencia en Azure Data Factory y Azure SQL / Azure Cosmos DB. (mandatorio)
  • Experiencia en Formato de Datos con Delta, CSV, Parquet, JSON y/o Avro.
  • Experiencia en Despliegues de soluciones con herramientas IC (Jira, Jenkins, Github).
  • Conocimientos generales en Arquitectura BigData, Pipeline de Datos, Data Quality y metodologías agile (Scrum).

Además, valoraremos talentos que muestren competencias desarrolladas de Comunicación Asertiva a todo nivel, Autonomía / Autogestión para la toma de decisiones, Orientación al Logro para la consecución de objetivos y Adaptabilidad al Cambio en cualquier entorno.

¿Qué puedes esperar de nosotros?

  • Remuneración en planilla con todas las condiciones de ley.
  • Bono de movilidad y bono de alimentos con tarjeta Pluxee.
  • Capacitaciones constantes acorde a tu línea de carrera y otras de interés general (plataformas de e-learning).
  • Pago de certificaciones acordes a tu perfil y a las necesidades del negocio, además de invitaciones a eventos o congresos relacionados a la comunidad.
  • Beneficios corporativos a través de nuestra plataforma de descuentos y de salud (psicología / nutrición)
  • Línea de carrera con objetivos definidos para tu crecimiento profesional.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily, lo que refleja un sólido posicionamiento en el sector inmobiliario y de administración de propiedades en la región. El equipo de datos tiene un rol clave para optimizar y dirigir los procesos internos mediante soluciones tecnológicas de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa.

Apply directly on Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos profesionales

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL a nivel medio.
  • Manejo de Python Intermedio/Avanzado (excluyente), con experiencia en librerías Pandas y Numpy.
  • Manejo de Power BI a nivel medio para desarrollo y mantenimiento de dashboards.
  • Manejo avanzado de Excel para análisis y procesamiento de información.
  • Experiencia mínima de 1 a 3 años.
Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Habilidades y conocimientos deseables

Se valoran conocimientos en metodologías ágiles para la gestión y desarrollo colaborativo de proyectos, capacidades de comunicación efectiva para la interacción con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Asimismo, la experiencia en buenas prácticas de gobernanza y calidad de datos será un plus importante para aportar a la robustez del ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad.
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales.
  • Monto mensual en app de snacks en la oficina.
  • Medio día libre en tu cumpleaños.
  • Copago en seguro complementario de salud.
  • Reajuste anual de renta basado en IPC.
  • Bono anual por desempeño.
  • Eventos empresa y happy hours financiados por la compañía.
  • Acceso a plataforma de cursos de formación.
  • Convenios con gimnasios, descuentos y más.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Lead Data Engineer
  • Bertoni Solutions
Python Analytics SQL Azure

We are Bertoni Solutions, a multinational team uniting Latin American talent and Swiss precision. Since 2016, we have helped clients translate technology into success by combining the creativity and passion of Latin American professionals with the rigor and organizational mindset of Swiss culture. Our development team is located across Latin America, including Lima, and we deliver consulting software and digital transformation services to organizations worldwide, always working 100% remotely. We focus on innovative, impactful projects leveraging the latest technology trends and digital transformation initiatives, offering a truly multicultural and global collaboration environment.

This job offer is available on Get on Board.

Key Responsibilities

  • Design and develop scalable data pipelines using PySpark to support analytics and reporting needs.
  • Write efficient SQL and Python code to transform, cleanse, and optimize large datasets.
  • Collaborate with machine learning engineers, product managers, and developers to understand data requirements and deliver effective solutions.
  • Implement and maintain robust ETL processes to integrate structured and semi-structured data from multiple sources.
  • Ensure data quality, integrity, and reliability across all pipelines and systems.
  • Participate in code reviews, troubleshooting, and performance tuning activities.
  • Work independently and proactively identify and resolve data-related issues.
  • Contribute to cloud-based data solutions, specifically on Azure platforms such as Azure Data Factory, Synapse, ADLS, Databricks, and Fabric.
  • Support cloud migration initiatives and adopt DevOps best practices.
  • Provide guidance on best practices and mentor junior team members when needed.

Job Description and Requirements

We are looking for a highly skilled Lead Data Engineer with extensive experience in PySpark, SQL, Python, Azure Data Factory, Synapse, Databricks, and Microsoft Fabric. The candidate must have a solid understanding of ETL processes, data warehousing principles, and end-to-end data engineering workflows.

Required Skills and Experience:

  • 8+ years of experience working in cross-functional teams that include machine learning engineers, developers, product managers, and analytics teams.
  • 3+ years of hands-on experience developing and managing data pipelines using PySpark.
  • 3 to 5 years of experience with Azure-native services such as Azure Data Lake Storage (ADLS), Azure Data Factory (ADF), Azure Databricks, Azure Synapse Analytics, Azure SQL Database, and Fabric.
  • Strong programming skills in Python and SQL.
  • Proven expertise in ETL processes, data modeling, and data warehousing end-to-end solutions.
  • Self-driven, resourceful, and comfortable working in fast-paced, dynamic environments.
  • Excellent communication skills and fluency in written and spoken English at an advanced level (B2, C1 or C2 only).
  • Demonstrated leadership experience in current or previous projects.
  • Must be located in Central or South America due to nearshore position requirements.

Soft Skills: Effective communication, proactive problem-solving, collaboration, mentoring capacity, and adaptability to changing priorities and technologies are crucial to succeed in this role.

Desirable Skills

  • Databricks certification.
  • Knowledge of DevOps practices, including CI/CD pipelines and cloud migration best practices.
  • Familiarity with Azure Event Hub, IoT Hub, Azure Stream Analytics, Azure Analysis Services, and Cosmos DB.
  • Basic understanding of SAP HANA.
  • Intermediate experience with Power BI.

Why Join Us?

  • 100% Remote Work.
  • Multicultural and Diverse Environment.
  • Continuous Professional Development:.
  • Challenging and Innovative Projects.

More Details:

  • Contract type: Independent contractor (This contract does not include PTO, tax deductions, or insurance. It only covers the monthly payment based on hours worked).
  • Location: The client is based in the United States; however, the position is 100% remote for nearshore candidates located in Central or South America.
  • Contract/project duration: Initially 6 months, with extension possibility based on performance.
  • Time zone and working hours: Full-time, Monday to Friday (8 hours per day, 40 hours per week), from 8:00 AM to 5:00 PM PST (U.S. time zone).
  • Equipment: Contractors are required to use their own laptop/PC.
  • Start date expectation: As soon as possible.
  • Payment methods: International bank transfer, PayPal, Wise, Payoneer, etc.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer GCP Excluyente
  • coderslab.io
Java Python Agile NoSQL
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DATA ENGINEER para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply directly on Get on Board.

Funciones del cargo

  • Diseñar, desarrollar y mantener procesos de ingesta, transformación y carga (ETL/ELT) de datos para asegurar la disponibilidad y calidad de la información.
  • Crear y administrar pipelines de datos eficientes y escalables que soporten el flujo continuo de datos desde múltiples fuentes hacia los sistemas de almacenamiento y análisis.
  • Implementar y promover buenas prácticas en el manejo de datos, incluyendo seguridad, gobernanza, control de acceso y cumplimiento de normativas.
  • Desarrollar soluciones de procesamiento distribuido para manejar grandes volúmenes de datos en entornos cloud.
  • Gestionar y optimizar los servicios de Google Cloud Platform (GCP) relacionados con la ingeniería de datos, como Pub/Sub, Dataflow, Dataproc, Dataprep, Cloud Functions, BigQuery, Composer y Cloud Storage.
  • Colaborar con equipos multidisciplinarios para entender requerimientos de datos y traducirlos en soluciones técnicas robustas.
  • Realizar monitoreo, mantenimiento y mejora continua de los pipelines y sistemas de datos para garantizar alta disponibilidad y rendimiento.
  • Documentar procesos, arquitecturas y estándares técnicos relacionados con la ingeniería de datos.

Requerimientos del cargo

  • Experiencia comprobable en diseño y desarrollo de procesos ETL/ELT y pipelines de datos.
  • Sólidos conocimientos en Google Cloud Platform (GCP), especialmente en los servicios:
    • Pub/Sub
    • Dataflow
    • Dataproc
    • Dataprep
    • Cloud Functions
    • BigQuery
    • Composer
    • Cloud Storage
  • Dominio en programación con Python y Java para desarrollo de scripts, automatización y procesamiento de datos.
  • Conocimientos en bases de datos SQL y NoSQL, con experiencia en MongoDB y BigQuery.
  • Experiencia en procesamiento distribuido y manejo de grandes volúmenes de datos.
  • Conocimiento en buenas prácticas de seguridad y gobernanza de datos.
  • Capacidad para trabajar en equipos ágiles y multidisciplinarios.
  • Habilidades de comunicación efectiva para presentar soluciones técnicas y colaborar con otras áreas

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 18 MESES con posibilidad de extensión

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Financial Planning & Analytics Analyst
  • Wherex
  • Santiago (Hybrid)
Python Analytics Excel SQL

WherEX es una scale up tecnológica de comercio industrial con operaciones en México, Colombia, Chile y Perú 🚩

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!
Puedes enterarte un poco más de nosotros aquí

Apply without intermediaries from Get on Board.

Job functions

  • Realizar estudios y análisis específicos requeridos por distintas áreas.
  • Diseño de KPIs internos.
  • Generar y mantener los modelos de forecasting de la empresa.
  • Apoyar la creación y seguimiento de los presupuestos.
  • Apoyar el seguimiento de los resultados.
  • Desarrollar Dashboards y KPI’s financieros para la toma de decisiones y expansión del negocio

Qualifications and requirements

  • Ingeniero civil industrial.
  • 0 a 1 año de experiencia.
  • Manejo de excel avanzado.
  • Manejo de SQL básico.
  • Deseable conocimiento en programación.
  • Deseable uso de Python o herramienta similar.
  • Uso de herramientas de visualización (Power BI, Tableau, CartoDB o Google Studio).
  • Inglés.

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎 llevando a la oficina y al equipo tu soporte un día a la semana

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Linux Virtualization
En BC Tecnología, una consultora especializada en servicios IT con más de 6 años de experiencia, diseñamos y ejecutamos soluciones tecnológicas para clientes de sectores como servicios financieros, seguros, retail y gobierno. A través de un enfoque ágil y centrado en el cliente, formamos equipos de trabajo dedicados en áreas como infraestructura tecnológica, desarrollo de software y unidades de negocio. En este proyecto de 6 meses, se integrará un Ingeniero de Datos AWS para trabajar en la manipulación de grandes volúmenes de información aprovechando la nube y tecnologías modernas, contribuyendo a optimizar procesos y aportar valor mediante datos escalables.

Apply to this posting directly on Get on Board.

Responsabilidades y Tareas

  • Desarrollar y mantener pipelines de datos escalables y eficientes en entornos AWS.
  • Manipular grandes volúmenes de datos utilizando Python y SQL, asegurando calidad y rendimiento.
  • Ejecutar procesos ETL en la nube utilizando servicios AWS como EC2, S3, Glue, Lambda, Athena y Redshift.
  • Modelar datos y aplicar técnicas de exploración para facilitar el análisis y la toma de decisiones.
  • Optimizar procesos de ingesta y transformación de datos para maximizar valor y eficiencia.
  • Colaborar con equipos multidisciplinarios para entender necesidades y desarrollar soluciones técnicas alineadas a los objetivos del negocio.
  • Mantenimiento y operación bajo sistemas Linux para soporte a las soluciones implementadas.

Requisitos y Perfil

Buscamos un Ingeniero de Datos con 2 a 3 años de experiencia comprobable en roles similares, especialmente trabajando en entornos cloud, preferentemente AWS. Es indispensable un manejo avanzado de Python, SQL y Linux, así como experiencia aplicada en servicios clave de AWS como EC2, S3, Glue, Lambda, Athena y Redshift. El candidato ideal debe tener sólidos conocimientos en procesos ETL en la nube, modelamiento de datos y técnicas exploratorias que permitan optimizar el flujo y la calidad de los datos.
Valoramos perfiles analíticos, proactivos y orientados a la mejora continua que disfruten construyendo pipelines robustos y aplicando buenas prácticas en gestión de datos. Se requiere capacidad para trabajar en modalidad híbrida, así como habilidades comunicativas efectivas para colaborar con equipos técnicos y de negocio.
Se considera como deseable experiencia previa con COBOL SQL en entornos Mainframe, ampliando así su versatilidad técnica.

Deseables

Experiencia en COBOL SQL sobre sistemas Mainframe, que permita complementar las capacidades en entornos legacy.
Conocimientos adicionales en herramientas de automatización y monitoreo de procesos ETL.
Familiaridad con metodologías ágiles y herramientas colaborativas para integración en equipos multidisciplinarios.
Capacidad para documentar procesos y generarreports técnicos orientados a stakeholders.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista de Big Data
  • SONDA
  • Santiago (Hybrid)
Java Python PostgreSQL SQL

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, para proyecto SII - Servicio de impuestos indirectos, buscamos a Especialista de Big Data.

Applications are only received at getonbrd.com.

Funciones del cargo

· Ser responsable de crear el "Big Data", tubería de datos, desde la recolección hasta la entrega para su análisis o para alimentar un producto o servicio basado en análisis predictivos en producción.

· Asegurar que la arquitectura de datos sea factible para que los científicos de datos trabajen con ella.

· Construir y mantener un Data Lakes y ofrece API para acceder al Especialista de Data Science que usa los datos para su análisis y ejecución de modelos de Machine Learning.

· Ser responsable de dar todo el apoyo para que el trabajo del Especialista de Data Science suceda, y sea “más efectivo”.

Requerimientos del cargo

· Estudios superiores en áreas relacionados.

· Desde 2 años de experiencia en cargos similares.

· Construcción de procesos e integración de datos en Big Data

· Conocimiento de conceptos de computación distribuida

· Experiencia y conocimiento en el uso de SQL.

· Uso de bases de datos relacionales, particularmente en Oracle y postgreSQL.

· Bases de Datos NoSQL
· Manejo de sistemas Unix/linux, shell script

· Programación orientada a objetos usando JAVA o Python

· Programación Funcional en Scala/Spark

· Manejo de herramientas de CI/CD.

· Conocimiento de almacenamiento de Datos.
· Diseño de Esquemas de datos

· Conocimiento de Hive, Impala, Kudu

· Conocimiento de Kafka ​

· Deseable conocimiento en el uso de servicios en entorno Cloudera.

Opcionales

Y mucho mejor si destacas por tener alguna certificación o curso en alguno de estos tópicos: ​

· Integración de datos

· Big data

· Desarrollo API

· Microservicios, springboot, springbatch

· Desarrollo en nube

· Desarrollo seguro

· Diseño de aplicaciones

· Metodologías ágiles

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Dental insurance SONDA pays or copays dental insurance for employees.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
Education stipend SONDA covers some educational expenses related to the position.
Fitness subsidies SONDA offers stipends for sports or fitness programs.
POSTULAR VÍA WEB Ver trabajo
Gross salary $800 - 1200 Tiempo completo
Data Engineer
  • Guinea Mobile SAC (Cuy Móvil)
Java Python PostgreSQL SQL

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer para conformar el equipo de TEC.

Apply only from getonbrd.com.

Funciones del cargo

Diseño de Infraestructura de Datos Escalable:

  • Crear sistemas robustos que soporten petabytes de datos con alta disponibilidad y rendimiento.

Automatización de Procesos de Integración:

  • Diseñar y gestionar pipelines automatizados para integración y limpieza de datos.

Colaboración con Analistas y Científicos de Datos:

  • Proveer datasets limpios, modelados y fácilmente accesibles.

Optimización de :

  • Identificar cuellos de botella en flujos de datos y aplicar soluciones para mejorar tiempos de respuesta.

Monitoreo de Flujos de Datos:

  • Implementar herramientas de monitoreo y alertas para garantizar la calidad y consistencia de los datos en tiempo real.

Requerimientos del cargo

  • Procesamiento de Datos:
    • Experiencia en frameworks como Apache Spark, Hadoop o Google Dataflow para procesamiento en grandes volúmenes de datos.
    • Conocimiento avanzado de batch processing y stream processing.
  • Bases de Datos y Almacenamiento:
    • Manejo de bases de datos relacionales (Oracle, PostgreSQL o SQL Server ) y NoSQL (MongoDB, DynamoDB, Cassandra).
    • Experiencia en la configuración y gestión servicios data warehouses como Snowflake, Redshift o BigQuery.
  • ETL/ELT:
    • Experiencia en la construcción y optimización de pipelines de datos usando herramientas como Apache Airflow, dbt, Talend o Luigi.
  • Programación:
    • Dominio de lenguajes como Python, Scala o Java, enfocados en la manipulación de datos.
    • Habilidades en scripting para automatización y manejo de grandes datasets.
  • Cloud Computing:
    • Familiaridad con servicios de datos en la nube como AWS Glue, Azure Data Factory o Google Cloud Dataflow.
    • Conocimientos en almacenamiento y gestión de datos en la nube: Amazon S3, Google Cloud Storage o Azure Blob Storage.
  • Calidad y Seguridad de Datos:
    • Implementación de procesos de data profiling, limpieza y validación de datos.
    • Experiencia en garantizar el cumplimiento de normativas como GDPR, HIPAA o similares.
  • Optimización de Consultas y Modelado de Datos Dimensionales:
    • Diseño de modelos de datos eficientes para análisis y consumo.
    • Desarrollo y optimización de queries SQL (CTES, Joins, Subqueries, etc) y otras herramientas.
  • Detallista: Capacidad para identificar inconsistencias y cuidar la calidad de los datos en cada etapa del proceso.
  • Proactivo/a: Capacidad para anticiparse a problemas, proponer mejoras y tomar iniciativa sin necesidad de esperar instrucciones.
  • Colaborativo/a: Comodidad para trabajar junto a analistas, desarrolladores o científicos de datos, fomentando el aprendizaje mutuo.
  • Flexible en la Colaboración: Valoramos a quienes se involucran donde pueden aportar, más allá de lo que indica su rol. Creemos que los equipos funcionan mejor cuando cada persona está dispuesta a sumar donde más se le necesita.
  • Enlace a repositorio en GitHub, GitLab o Bitbucket.
  • Certificaciones relevantes como Google Cloud Professional Data Engineer, AWS Certified Data Analytics, o similares.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Actuario Senior
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Data Analysis Excel SQL English

¿Quieres ser parte de los líderes en la revolución de los seguros?

BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión.

Apply to this job through Get on Board.

Job functions

Hoy BNP Paribas Cardif busca a un Actuario Senior que se sume a la subgerencia de Pricing & Product Management. Donde tú misión será ser responsable de desarrollar y mejorar modelos de evaluación que permitan realizar análisis de estudios técnico-financieros orientados a la toma de decisiones por parte de los equipos de Pricing y Negocios. Además, serás responsable de presentar reportes que permitan monitorear las variables críticas de cada negocio con el fin de mitigar el riesgo de no alcanzar los resultados esperados. Y a su vez, deberás realizar evaluaciones de nuevos productos, respetando todas las políticas de la compañía en el proceso de desarrollo de producto y validación

Qualifications and requirements

¿Cuáles son los principales desafíos del cargo?

· Analizar la rentabilidad de la cartera de productos con el nivel de detalle requerido, entregar a la Gerencia General y Comercial las herramientas y los informes para tomar decisiones.

· Garantizar el seguimiento del riesgo (estudios, desarrollo de KPIs, metodologías de proyección de resultados).

· Facilitar la gestión del equipo de pricing y negocios, apoyando la relación con el cliente, a través del seguimiento de su catera.

· Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.

· Desarrollar y mejorar los modelos de evaluación y herramientas de cálculo.

· Seguimiento, estudio y control de los riesgos que enfrenta cada cartera de socios.

· Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.

· Buscar la mejora continua los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo.

¿Cómo saber si hago match con esta vacante?
Buscamos a alguien que:

Requisitos:

- Formación en Ingeniero Civil Industrial, Actuario, Estadístico o carrera afín.

- Experiencia mínima de 5 años en Pricing o Actuariado.

Conocimientos:

  • Manejo de MS Office, nivel avanzado, especialmente Excel
  • Manejo en bases de datos y programación en SQL y SAS.
  • Manejo de inglés intermedio

Conditions

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • ARKHO
  • Bogotá (Hybrid)
Python SQL Virtualization Amazon Web Services
ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!
🎯 Objetivo del Rol

Transformar datos complejos en soluciones concretas. Su misión principal será entender los desafíos del negocio, analizar la información disponible y diseñar modelos que realmente generen impacto.

This job is published by getonbrd.com.

Funciones Principales

  • Entender el contexto del cliente: qué quiere lograr, cuáles son sus indicadores clave y qué datos tiene disponibles.
  • Aplicar técnicas de análisis estadístico, machine learning y deep learning para resolver problemas específicos.
  • Diseñar y poner en marcha soluciones basadas en inteligencia artificial, incluyendo el uso de Large Language Models (LLMs) y embeddings.
  • Acompañar al cliente en la toma de decisiones, explicando alternativas de solución de forma clara y práctica.
  • Trabajar en entornos colaborativos y ágiles, con foco en soluciones escalables, seguras y robustas en la nube (principalmente con herramientas de AWS como SageMaker, S3, Lambda y Bedrock).
  • Colaborar activamente con el equipo, aportando ideas y compartiendo buenas prácticas.

Perfil del Archer

Buscamos un profesional proactivo, autónomo y con iniciativa, apasionado por resolver problemas complejos y que disfrute trabajar en equipo. Se valoran especialmente las ganas de aprender y desarrollar nuevas habilidades.
Requisitos técnicos y experiencia:
  • Mínimo 3 años de experiencia en roles similares enfocados en machine learning e inteligencia artificial.
  • Conocimiento sólido en técnicas de machine learning como clustering, análisis de componentes principales (PCA), regresión logística, entre otras.
  • Experiencia en desarrollo de modelos utilizando deep learning y en particular con Large Language Models y embeddings.
  • Dominio avanzado de Python y SQL.
  • Experiencia con librerías de análisis y machine learning como Pandas, Scikit-learn, Numpy y Matplotlib.
  • Familiaridad con servicios en la nube, especialmente AWS (SageMaker, S3, Lambda y Bedrock).
  • Título profesional en Ingeniería de Sistemas, Ingeniería Matemática o carreras afines.
  • Inglés de nivel intermedio es deseable, pero no obligatorio.

Beneficios

En ARKHO fomentamos una cultura de aprendizaje continuo, innovación tecnológica y un ambiente de trabajo flexible, inclusivo y respetuoso, que apoya tanto el desarrollo profesional como el bienestar personal.
  • 📆 Día administrativo semestral durante el primer año.
  • 🏖️ Week off: 5 días extra de vacaciones.
  • 🎉 Celebración de cumpleaños.
  • 📚 Ruta de entrenamiento y desarrollo profesional.
  • ☁️ Certificaciones AWS patrocinadas.
  • 🏡 Trabajo flexible, modalidad híbrida con opción a remoto.
  • 💍 Regalo y 5 días hábiles libres por matrimonio.
  • 👶 Regalos por nacimiento de hijos.
  • ✏️ Kit escolar.
  • 🤱 Beneficio de paternidad.
  • ❤️ Acceso a Bonda, plataforma de descuentos y bienestar.
  • 💰 Aguinaldos.
  • 🧘‍♀️ Programa ARKHO Open Doors para bienestar integral.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Analyst (SQL/Tableau)
  • HumanForest
  • Santiago (Hybrid)
Python MySQL PostgreSQL Data Analysis
What is Forest?

We are Forest, London’s most sustainable shared eBike operator. We bridge the gap between affordability and sustainability, using our advertising revenue to offer all users 10 minutes free cycling daily.
We have just raised a Series A funding round to double our fleet size in London, continuing to invest in our digital marketing proprietary tech, and starting our international expansion plans.
If you want to join a quick-moving and fast-growing company, making a difference in the micro-mobility industry, come join us.
Please note: our company is based in the UK and has Chilean Founders.
*This job is based in Chile (candidate must be based here), and reports to the team in Chile and the UK. Spanish and English fluency is mandatory.

Apply directly at getonbrd.com.

What are you going to do?

-Work with stakeholders throughout the organization to identify opportunities for leveraging company data to drive business solutions.
-Interpret data, analyze results using statistical techniques and provide ongoing reports.
-Coordinate with different functional teams to develop dashboards and monitor outcomes.
-Identify, analyze, and interpret trends or patterns in complex data sets.
-Work with management to prioritize business and information needs.
-Locate and define new process improvement opportunities.

What are we looking for?

-Educational background in Statistics, Mathematics, Engineering or Computer Science.

-At least 2+ years of experience in similar roles.

-Strong problem solving skills.

-Strong knowledge and experience with Tableau and/or Microsoft Power BI.

-Knowledge of statistics and experience using statistical packages for analyzing datasets (Excel, SAS, R, Python).

-Experience querying databases: PostgreSQL, Redshift, MySQL, BigQuery, etc.

-Strong experience and knowledge in SQL.

-Excellent written and verbal communication skills for coordinating across teams.

-A drive to learn and master new technologies and techniques.

-Fluent in English to communicate effectively with the UK team.

Bonus

-Experience developing with Python and FastAPI.
-Experience developing Data Pipelines.
-Understanding of Git and GitHub for version control and collaboration.
-Experience using project management and collaboration tools like Linear, Jira, Trello, or Asana.

What will you get in return?

- Play a key role in the transformation of sustainable urban mobility in our cities.

- Competitive compensation plan with plenty of development opportunities.

- Scale with a rapidly growing organization, working with a team of fun, experienced and motivated individuals, with highly growth opportunities.

- Private Health Insurance plan.

- 20 days holiday plus your birthday.

- Work for an international company that has a link between Chile and the UK.

- Bilingual mode of communication at work.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage HumanForest pays or copays health insurance for employees.
Computer provided HumanForest provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal HumanForest gives you paid vacations over the legal minimum.
Beverages and snacks HumanForest offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Operaciones Medios de Pago
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de ANALISTA DE OPERACIONES - MEDIOS DE PAGO para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this posting directly on Get on Board.

Funciones del cargo

  1. Desarrollo de Paneles:
    • Crear y mantener paneles interactivos en Power BI y Looker Studio para la visualización de datos.
    • Asegurar que los paneles reflejen métricas clave y sean accesibles para los usuarios finales.
  2. Explotación de Datos:
    • Realizar la extracción y transformación de datos desde diversas fuentes.
    • Implementar procesos de limpieza y validación de datos.
  3. Análisis de Datos:
    • Analizar grandes volúmenes de datos para identificar tendencias, patrones y oportunidades de mejora.
    • Generar informes analíticos que apoyen la toma de decisiones estratégicas.
  4. Extracción y Análisis Multiplataforma:
    • Integrar datos de diferentes plataformas y sistemas, asegurando una visión holística del rendimiento.
    • Colaborar con equipos de IT para optimizar la infraestructura de datos.
  5. Colaboración Interdepartamental:
    • Trabajar de manera colaborativa con otros departamentos para entender sus necesidades de datos y proporcionar soluciones efectivas.
    • Participar en reuniones de equipo para discutir resultados y proyecciones.
  6. Documentación:
    • Mantener documentación clara y concisa de procesos, análisis y hallazgos.
    • Presentar resultados de manera efectiva a diferentes niveles de la organización.

Requerimientos del cargo

Habilidades/Conocimientos Obligatorios

  • Herramientas y Tecnologías:
    • Power BI
    • GCP (Google Cloud Platform)
    • Looker Studio
    • SQL
    • Python
  • Educación:
    • Título universitario en áreas relacionadas (Ingeniería, Estadística, Ciencias de la Computación, etc.).
  • Experiencia:
    • Experiencia previa en análisis de datos o roles similares (preferentemente en el sector de medios de pago).
  • Habilidades Técnicas:
    • Dominio de SQL para la manipulación y consulta de bases de datos.
    • Conocimiento práctico de Python para análisis de datos y automatización de procesos.
    • Experiencia en el uso de herramientas de visualización (Power BI, Looker Studio).
  • Habilidades Blandas:
    • Excelentes habilidades de comunicación y presentación.
    • Capacidad para trabajar en equipo y colaborar con diferentes áreas.
    • Pensamiento analítico y atención al detalle.

POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Ingeniero de Datos Senior
  • foris.ai
Artificial Intelligence English Data Engineer Continual improvement process

Somos una empresa líder en Latinoamérica que ofrece soluciones cloud basadas en Inteligencia Artificial y servicios de consultoría para optimizar procesos críticos en la Educación Superior. Nuestro objetivo es transformar la experiencia digital de alumnos, docentes y staff académico mediante una suite de productos que automatizan más del 50% de las tareas manuales, optimizan hasta un 25% los costos y contribuyen a la reducción de la deserción estudiantil.

Contamos con más de 65 instituciones educativas clientes en 10 países, alcanzando a un millón de estudiantes. Buscamos expandir nuestra tecnología disruptiva a nuevos mercados internacionales, diseñando sistemas escalables capaces de soportar un crecimiento importante y diferentes ecosistemas complejos.

Somos un equipo multicultural y multidisciplinario que combina capacidades en ingeniería, matemáticas, desarrollo, diseño y consultoría, enfocados en llevar al sector EdTech a un nuevo nivel usando inteligencia artificial avanzada.

Job source: getonbrd.com.

¿En qué consistirá tu trabajo?

  • Ser experto funcional de nuestra suite de soluciones, comprendiendo y dominando a fondo la lógica y arquitectura de cada aplicación.
  • Liderar la implementación y puesta en marcha de nuestros productos y sus integraciones para asegurar despliegues fluidos y exitosos en nuestros clientes.
  • Trabajar con consultas SQL avanzadas para explotar, transformar y analizar grandes volúmenes de datos con rigor y eficiencia.
  • Diseñar, desarrollar e implementar procesos ETL robustos para manejar grandes flujos de información alineados con las necesidades de las universidades y Foris.
  • Aplicar modelado, análisis y automatización de datos utilizando Python de forma estructurada y escalable.
  • Colaborar estrechamente con equipos internos multidisciplinarios y con clientes externos para diseñar soluciones técnicas innovadoras que aporten valor real al negocio.
  • Documentar detalladamente cada solución para garantizar su trazabilidad, mantenibilidad y calidad a largo plazo.

Stack de herramientas y tecnologías :
Herramientas:

  • Athena
  • Glue data catalog
  • Amazon S3
  • Cloudwatch AWS
  • IAM AWS
  • AWS CLI
  • Postman
  • JSON / RESTful APIs

Lenguajes

  • TrinoSql
  • MySQL
  • SparkSql
  • PySpark
  • Python
  • PostgresSql
  • YAML

Perfil del cargo

Buscamos profesionales con formación técnica rigurosa en Ingeniería de Sistemas, Matemáticas, Inteligencia Artificial, Ciencia de Datos o carreras afines. Es indispensable haber complementado cualquier formación que no sea estrictamente técnico-científica con educación y experiencia práctica.

El candidato ideal cuenta con al menos 5 años de experiencia profesional consolidada y mínima experiencia de 3 años en consultoría tecnológica y/o procesamiento y análisis avanzado de datos. Este puesto no es para perfiles juniors ni para quienes buscan un rol intermedio; está destinado a quienes desean escalar profesionalmente resolviendo desafíos complejos y reales.

Es fundamental poseer un entendimiento profundo tanto del negocio educativo como del ecosistema de datos y tecnología que soporta nuestras soluciones. Debe ser capaz de identificar ineficiencias, proponer soluciones innovadoras y ejecutar sin necesidad de supervisión constante.

Además, el rol requiere excelentes habilidades de comunicación, particularmente en redacción y verificación de información, tanto en español como en inglés, debido a la interacción con herramientas de Inteligencia Artificial generativa y de optimización. Se valoran especialmente competencias en generación y curaduría de prompts para IA.

Buscamos una persona proactiva, orientada a la mejora continua, capaz de transformar procesos, productos y flujos de trabajo mediante modelos de datos, visualización y automatización, que aporte prácticas y referencias que eleven el estándar técnico del equipo desde el primer día.

Competencias y conocimientos deseables

Se valorará experiencia previa en ambientes EdTech o en la educación superior, conocimiento avanzado en plataformas de nube, especialmente en arquitecturas escalables para grandes volúmenes de datos y familiaridad con herramientas de IA aplicadas a la optimización operacional.

Habilidades en manejo de metodologías ágiles y coordinación de equipos multidisciplinarios serán un plus para facilitar la integración y entrega de soluciones.

Además, se considerarán positivamente conocimientos en visualización avanzada de datos, manejo de tecnologías de integración de datos en tiempo real, y experiencia en diseño de arquitecturas data-driven.

Beneficios y cultura organizacional

En Foris valoramos la diversidad y el bienestar de nuestros colaboradores. Ofrecemos horarios flexibles que permiten compatibilizar trabajo con otras actividades, además de permitir días libres para trámites administrativos, cumpleaños y festividades importantes.

Contamos con jornadas reducidas cada quince días los viernes, iniciando a las 9:00 y finalizando a las 15:00 hrs, junto con un día completo de vacaciones canjeable para celebrar tu cumpleaños.

Nuestra cultura promueve un ambiente multicultural e inclusivo, con un equipo equilibrado en género y conformado por profesionales de diversas nacionalidades. No exigimos códigos de vestimenta para el día a día, salvo eventos con clientes.

Organizamos actividades de integración, viajes y retiros corporativos para fortalecer el espíritu de equipo en entornos distendidos y agradables.

El trabajo será hibrido en Bogotá, Colombia y remoto desde Chile.

Internal talks foris.ai offers space for internal talks or presentations during working hours.
Company retreats Team-building activities outside the premises.
Computer repairs foris.ai covers some computer repair expenses.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1500 Tiempo completo
Data Engineer Junior
  • AgendaPro
  • Santiago (In-office)
Python Data Analysis SQL Artificial Intelligence

En AgendaPro, ayudamos a dueños y administradores de Centros de Estética, Salud, Belleza y Deporte a aceptar reservas de manera sencilla y vender sus servicios online. Como una de las Startups tecnológicas de Y Combinator de mayor crecimiento en Latinoamérica, contamos con más de 15.000 clientes en 17 países, incluyendo Argentina, Chile, Colombia, México y Perú. Nuestra misión es crear un software todo-en-uno simple e intuitivo que conecte estos negocios con el mundo digital, permitiéndoles enfocarse en lo importante: sus clientes y el crecimiento de sus negocios.

¿Preparado para crecer y enfrentar grandes desafíos con nosotros? 😎

Apply exclusively at getonbrd.com.

Responsabilidades del Puesto

Como Data Engineer Junior, serás el encargado de que los procesos de extracción, carga, y transformación de datos de AgendaPro --cientos de miles de datos por día-- funcionen a la perfección. Estos procesos nos permiten transformar datos complejos en hallazgos claros y útiles para los equipos de producto, tencología, marketing y finanzas, apoyando la toma de decisiones estratégicas. Entre tus responsabilidades se incluyen:

  • Automatizar y mantener funcionando los procesos de extracción, carga y transformación de datos
  • Apoyar en el análisis de datos utilizando estadísticas y metodologías cuantitativas para detectar patrones, anomalías y oportunidades.
  • Comunicar de forma clara y precisa tus hallazgos a distintos stakeholders mediante reportes y visualizaciones.
  • Colaborar con otros equipos para entender sus necesidades y apoyar en la definición de métricas y KPIs clave.
  • Participar activamente en reuniones y sesiones de trabajo en nuestras oficinas en Santiago, aportando una visión fresca y orientada a resultados.

Requisitos del Candidato

Buscamos un profesional con título universitario en áreas STEM (Ciencia, Tecnología, Ingeniería o Matemáticas) que tenga una base sólida en análisis estadístico. No es necesaria experiencia previa, pero sí un fuerte compromiso con la calidad y el aprendizaje continuo.

Requisitos específicos

  • Título universitario en matemáticas, estadística, ingeniería, informática, astronomía u otra carrera STEM
  • Experiencia o formación destacada en estadística y análisis de datos, con comprensión robusta de métodos estadísticos aplicados.
  • Haber usado IA en al menos 10 ramos de la U, en prácticas profesionales o en otros trabajos.
  • Disponibilidad para trabajar de manera presencial a tiempo completo en nuestras oficinas ubicadas en Santiago de Chile.

Cómo te apoyaremos

  • Durante la primera semana, partirás con un curso exprés de programación asistida por IA.
  • Durante el primer mes, te daremos una serie de tareas a cumplir, en grado ascendiente de dificultad. Te apoyaremos con cursos, material de estudio y guía constante.
  • Al final del tercer mes, dependiendo de tu rendimiento, te permitiremos escoger entre distintos roles: Data Engineer, Data Analyst o SDE.

Habilidades y Experiencia Deseables

  • Usas una IA como ChatGPT o Claude varias veces por día
  • Entiendes SQL, Python, R u otros lenguajes para la manipulación y consulta de bases de datos
  • Te expresas muy bien en español tanto hablado como escrito
  • Explicas en simple lo que es complejo

Beneficios y Cultura

  • El puesto es presencial en Santiago, Chile, contando con una oficina cómoda muy cercana al metro y con estacionamientos de bici
  • Incluimos stock options dependiendo de tu performance
  • Vacaciones sobre lo legal

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage AgendaPro pays or copays health insurance for employees.
Computer provided AgendaPro provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal AgendaPro gives you paid vacations over the legal minimum.
Beverages and snacks AgendaPro offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2300 - 2500 Tiempo completo
Analista Power BI
  • BC Tecnología
  • Santiago (Hybrid)
Excel SQL Business Intelligence Virtualization
En BC Tecnología somos una consultora de Servicios IT con amplia experiencia en consultoría, desarrollo de proyectos, outsourcing y selección de profesionales. Creamos equipos de trabajo ágiles en áreas de Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio, para clientes de sectores financieros, seguros, retail y gobierno. En este proyecto estratégico de 6 meses, nos enfocamos en la generación de dashboards y soluciones analíticas mediante Power BI, que permitan apoyar la toma de decisiones basada en datos dentro de la organización y sus áreas internas.

Apply directly on Get on Board.

Responsabilidades

  • Diseñar y mantener dashboards e informes utilizando Power BI.
  • Analizar datos para identificar oportunidades de mejora y resolver problemas de negocio.
  • Levantar requerimientos con áreas internas y proponer soluciones analíticas adecuadas.
  • Promover la alfabetización digital y el uso efectivo de herramientas analíticas en la organización.
  • Aplicar buenas prácticas en modelamiento de datos, visualización y asegurar la calidad de la información.

Requisitos

  • Dominio avanzado de Power BI, incluyendo DAX, modelado y visualización de datos.
  • Conocimientos sólidos en SQL y Excel, además de experiencia con herramientas como Tableau.
  • Deseable experiencia en plataformas cloud como BigQuery, AWS Redshift u otras similares.
  • Excelentes habilidades de comunicación y capacidad de análisis orientada al cliente interno.

Deseable

Se valorará experiencia adicional en manejo de plataformas en la nube para gestión y análisis de datos que complementen el trabajo en Power BI. También es deseable conocimiento en procesos de transformación digital y en promover el uso de analítica avanzada en diferentes áreas de la organización.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer (AWS Data Lakes)
  • Niuro
Python Git SQL Virtualization
Niuro is a leading global technology talent provider specializing in connecting elite tech teams with top-tier U.S.-based companies. Our mission is to simplify global talent acquisition and maximize project quality through innovative and efficient solutions. We empower autonomous, high-performance teams by handling all administrative aspects such as hiring, payments, and training, enabling our professionals to focus fully on delivering exceptional results. Within this context, we collaborate on impactful industrial data projects with a strong emphasis on innovation and technical excellence. Our teams contribute to challenging projects that leverage cutting-edge data engineering techniques, particularly in cloud-based environments, ensuring both professional growth and meaningful contributions to the client’s success.

Exclusive to Get on Board.

Role and Responsibilities

As a Data Engineer specializing in AWS Data Lakes, you will play a pivotal role in architecting, building, and managing scalable and robust data lake solutions on the AWS cloud platform. Your primary responsibilities will include designing and implementing data ingestion pipelines, optimizing data transformation processes, and ensuring data quality and integrity to power analytics and business intelligence initiatives.
Key tasks include:
  • Designing and maintaining data lakes using AWS services such as S3, Glue, Athena, Lambda, and Step Functions.
  • Developing and optimizing data processing workflows with PySpark and Python to transform raw data into actionable datasets.
  • Writing efficient SQL queries for data extraction and manipulation.
  • Collaborating closely with U.S.-based cross-functional teams to understand requirements and deliver solutions that align with business objectives.
  • Monitoring, troubleshooting, and improving the performance and reliability of data platforms.
You will be part of a remote, agile, and collaborative environment where continuous improvement and innovation are encouraged.

Skills and Experience Required

We are looking for a motivated Data Engineer with solid experience building and managing data lakes on AWS. The ideal candidate will demonstrate proficiency with core AWS services including S3, Glue, Athena, Lambda, and Step Functions, and have strong programming skills in Python and SQL for processing and transforming data.
Essential qualifications include:
  • Hands-on experience implementing scalable data lake architectures on AWS.
  • Competence with PySpark for distributed data processing.
  • Strong Python programming skills with the ability to create clean, maintainable code.
  • Solid SQL skills for complex queries and data manipulation.
  • Effective communication skills in conversational English to collaborate with teams and stakeholders based in the United States.
Soft skills necessary for success include a proactive attitude, problem-solving mindset, strong attention to detail, and the ability to work independently within a remote work context.

Additional Skills and Technologies (Nice to Have)

While not mandatory, the following skills will enhance your fit for this role and our projects:
  • Experience with backend frameworks and libraries such as FastAPI, Pydantic, and Gunicorn.
  • Familiarity with AWS SDKs such as Boto3 for AWS service integration.
  • Knowledge of web technologies including Aestiva HTML/OS.
  • Containerization and DevOps skills, particularly using Docker.
  • Experience with continuous integration and deployment tools like TeamCity.
  • Version control expertise using GitHub or Gitea.

What We Offer

Joining Niuro means becoming part of an innovative, supportive, and high-performing global community focused on technological excellence. We offer a fully remote position allowing you to work from anywhere in the LATAM region, providing flexibility and work-life balance.
We are committed to your continuous professional growth through ongoing technical and soft skills training, leadership development programs, and opportunities to work on impactful and technically challenging industrial data projects.
Niuro also offers a strong administrative support system, so you can focus entirely on your work without distractions related to hiring, payments, or HR processes.
We maintain a long-term vision for our collaborations, with the possibility of transitioning to stable full-time employment after the initial contract, reflecting our dedication to building lasting relationships with our team members.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 1900 Tiempo completo
Consultor Data Engineer
  • MAS Analytics
  • Santiago (Hybrid)
SQL Azure ETL Power BI

MAS Analytics es una consultora de datos e inteligencia artificail que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día tenemos muchos proyectos con clientes de muchos rubros distintos y necesitamos ingeniero/as apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

Apply only from getonbrd.com.

Funciones del cargo

Estamos buscando ingenier@s que sepan trabajar con datos, mover datos, interpretar datos y buscar datos. El cargo está orientado hacia la ingeniería de datos utilizando herramienta de ETL, Bases de datos y herramientas de reportería.

Si no manejas alguno de estos conceptos, no te preocupes, nos importa que tengas las bases para poder aprender y desafiarte día a día.

Tendrás que realizar las siguientes tareas (entre otras):

  1. Reuniones de negocio con clientes
  2. Creación de queries SQL
  3. Creación de pipelines ETL (on premise y cloud)
  4. Creación de visualizaciones en herramientas de BI

El éxito de tu trabajo se evaluará en el nivel de satisfacción de los modelos entregados a los clientes y en el cumplimiento de plazos.

Trabajarás dentro de los equipos de desarrollo de MAS Analytics teniendo reuniones de avance semanal con los clientes y otros miembros del equipo de MAS Analytics.

Requerimientos del cargo

Al ser consultoría en tecnología, necesitamos que tengas habilidades técnicas y habilidades blandas. Se privilegiarán perfiles de ingeniería civil TI o Computación.
En cuanto a las habilidades técnicas, se espera que puedas trabajar con las siguientes herramientas:
  1. Queries SQL (CRUD)
  2. Procesamiento: Dataflow (GCP, Azure), Lambda, Glue (AWS)
  3. Visualizaciones: Qlik, Tableau, Power BI
  4. Modelamiento de datos: modelos dimensionales OLAP
Con respecto a las habilidades blandas, necesitamos que estés preparada/o para:
  1. Llevar comunicación con los clientes
  2. Levantar requerimientos
  3. Trabajo en equipo
  4. Proactividad
  5. Pensamiento analítico

Opcionales

Conocimientos en herramientas Cloud (GCP, AWS, Azure)

Algunos beneficios

  1. Horario flexible
  2. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  3. Ambiente laboral joven
  4. Viernes medio día
  5. Vacaciones extra 🌞🏝
  6. Celebraciones de cumpleaños 🎁🎊
  7. Actividades de empresa 🍻⚽
  8. Y muchos más que podrás conocer…

Wellness program MAS Analytics offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Education stipend MAS Analytics covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1100 - 1400 Tiempo completo
Administrador de Bases de Datos (DBA) Controller Call Center
  • S3 Chile
  • Santiago (In-office)
Data Analysis Excel SQL Business Intelligence

S3 Chile es una empresa especializada en la entrega de servicios de Outsourcing enfocados en los procesos de negocios de sus clientes, con una fuerte presencia en la gestión de operaciones relacionadas con el área de Contact Centers y análisis de datos. El equipo está comprometido con la innovación tecnológica y la mejora continua, apoyando a sus clientes mediante soluciones de análisis de datos y reportes que optimizan la operación de campañas y segmentaciones dentro del entorno de call centers, utilizando herramientas avanzadas de Business Intelligence y administración de bases de datos.

Apply to this posting directly on Get on Board.

Responsabilidades

  • Diseñar, desarrollar y mantener reportes y dashboards que faciliten la visualización y toma de decisiones para las operaciones del call center.
  • Gestionar bases de datos y segmentaciones, asegurando la integridad, disponibilidad y actualización oportuna de la información.
  • Analizar grandes volúmenes de datos para detectar oportunidades de mejora en los procesos y campañas, aportando con insights basados en datos reales.
  • Colaborar estrechamente con el equipo de Business Intelligence para optimizar procesos, mejorar la calidad de la información y automatizar tareas relacionadas con el análisis y la generación de reportes.

Requisitos

Buscamos un profesional con formación en Ingeniería o carreras afines, que cuente con experiencia en Business Intelligence o análisis de datos, idealmente en entornos de Contact Centers. Es imprescindible un manejo avanzado de SQL para administrar y consultar bases de datos complejas, así como experiencia con herramientas de visualización de datos como Power BI o similares. El candidato debe contar con conocimientos avanzados de Excel para procesamiento y análisis de información.

Además, se valorará experiencia previa o conocimiento en Genesys Cloud, una plataforma líder en gestión de centros de contacto, lo que facilitará la integración y administración de las campañas vía base de datos.

Las habilidades blandas incluyen capacidad analítica, orientación al detalle, trabajo colaborativo, proactividad en la mejora continua y una actitud hacia el aprendizaje constante de nuevas tecnologías.

Deseable

Se valorará positivamente experiencia específica en administración y optimización de campañas en call centers, conocimiento en otras plataformas de gestión de centros de contacto, y habilidades en programación para automatización de reportes o tareas analíticas (por ejemplo, Python o R). También es deseable experiencia en diseño de dashboards interactivos y manejo de grandes volúmenes de datos.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos.
👥 Un equipo comprometido y un entorno de aprendizaje continuo, en línea con los nuevos desarrollos tecnológicos.En S3 Chile fomentamos una cultura orientada a datos y mejora continua, con foco en la innovación y crecimiento profesional constante. Formarás parte de un equipo que valora el trabajo colaborativo y la actualización permanente de sus conocimientos.

POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Engineer Azure Salesforce
  • BC Tecnología
Python Git REST API SQL
En BC Tecnología somos una consultora líder en servicios de TI que brinda soluciones integrales en infraestructura, desarrollo de software y outsourcing para clientes de sectores como servicios financieros, seguros, retail y gobierno. Actualmente, estamos desarrollando un proyecto innovador enfocado en la creación y optimización de pipelines de datos en la nube, utilizando tecnologías de Azure y Salesforce. Buscamos integrar grandes volúmenes de datos para transformar la información en activos estratégicos a través de análisis avanzados y modelos de datos robustos, apoyando a áreas de BI y Data Science para mejorar la toma de decisiones del negocio.

Apply to this job through Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos escalables y eficientes en Azure para la integración desde Salesforce, utilizando APIs REST y SOAP.
  • Gestionar la ingesta y almacenamiento de datos en Azure Data Lake Gen2, Azure SQL y Synapse Analytics para facilitar análisis avanzados y reporting.
  • Automatizar flujos de trabajo mediante Azure Data Factory (ADF), Logic Apps y Databricks asegurando la calidad y consistencia de los datos.
  • Implementar controles rigurosos de calidad, limpieza y transformación de datos según políticas corporativas de gobernanza y seguridad.
  • Colaborar de manera interdisciplinaria con equipos de Business Intelligence, Data Science y áreas de negocio para alinear los desarrollos con requerimientos funcionales.
  • Documentar detalladamente los procesos ETL/ELT y mantener actualizado el inventario de flujos y pipelines para facilitar la gestión y mantenimiento a futuro.

Requisitos y perfil del candidato

Buscamos un Data Engineer con al menos 3 años de experiencia en entornos cloud, preferentemente trabajando con Azure y Salesforce. El candidato ideal debe poseer experiencia práctica integrando datos desde Salesforce utilizando APIs REST, Bulk API y herramientas de Azure Data Factory.
Se requiere un conocimiento profundo en tecnologías clave de Azure como Azure Data Factory, Data Lake Gen2, Azure SQL y Synapse, así como experiencia en modelado de datos con esquemas en Estrella y Copo de Nieve.
Habilidades técnicas complementarias incluyen Python, PySpark, T-SQL y manejo avanzado de JSON/XML. Además, el candidato debe estar familiarizado con el uso de sistemas de control de versiones como Git y tener capacidad para trabajar en equipos multidisciplinarios bajo metodologías ágiles.
Valoramos competencias blandas como la proactividad, enfoque al detalle, capacidad analítica, buenas habilidades de comunicación y orientación al trabajo colaborativo.

Habilidades y certificaciones deseables

Es altamente valorado contar con certificaciones oficiales como Microsoft Azure DP-203, Power BI PL-300 y Scrum Master que respalden el conocimiento técnico y metodológico.
Contar con un nivel de inglés intermedio, tanto oral como escrito, es deseable para la comunicación con equipos globales y documentación técnica.
Experiencia previa en proyectos de integración de datos a gran escala y familiaridad con tecnologías complementarias como Logic Apps y Databricks serán consideradas un plus.

¿Qué ofrecemos?

En BC Tecnología promovemos un entorno colaborativo y basado en el aprendizaje continuo, donde valoramos el compromiso y el crecimiento profesional.
Nuestra modalidad de trabajo es 100% remoto, abierta a profesionales ubicados en toda Latinoamérica, lo que permite flexibilidad y balance personal.
Formarás parte de proyectos innovadores con clientes de alto nivel en diferentes industrias, en un clima laboral inclusivo, respetuoso y orientado al desarrollo tanto técnico como profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3500 Tiempo completo
Data Engineer Azure (Salesforce)
  • BC Tecnología
Python Git JSON TSQL
En BC Tecnología, una consultora de TI con 6 años de experiencia, nos especializamos en proveer soluciones tecnológicas a clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en la formación de equipos ágiles para áreas de infraestructura, desarrollo de software y unidades de negocio, gestionando proyectos, outsourcing y soporte IT. Actualmente, buscamos incorporar un Data Engineer con experiencia en Azure y Salesforce para un proyecto 100% remoto dirigido a candidatos de LATAM, buscando potenciar nuestro equipo con talento especializado en ingeniería de datos en la nube.

This company only accepts applications on Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables en Azure, extrayendo información desde Salesforce utilizando API REST y SOAP.
  • Integrar y consolidar datos en Azure Data Lake Gen2, Azure SQL Database y Synapse Analytics para asegurar la disponibilidad y fiabilidad de la información.
  • Automatizar flujos ETL utilizando herramientas como Azure Data Factory (ADF), Logic Apps y Databricks para optimizar procesos y minimizar errores manuales.
  • Implementar controles estrictos de calidad y limpieza de datos para garantizar la integridad y precisión en todos los conjuntos de datos procesados.
  • Colaborar estrechamente con los equipos de Business Intelligence, Data Science y áreas de negocio para entender requerimientos y entregar soluciones alineadas a objetivos estratégicos.
  • Documentar detalladamente los procesos ETL y asegurar el cumplimiento de políticas de gobernanza de datos, seguridad y mejores prácticas en la nube.

Requisitos y habilidades necesarias

Buscamos un Data Engineer con al menos 3 años de experiencia comprobable trabajando con tecnologías cloud, especialmente en plataformas Microsoft Azure orientadas a la integración de datos desde Salesforce.
Es fundamental que el candidato tenga experiencia real y práctica en la integración de datos mediante APIs de Salesforce (REST, Bulk API) y el uso de Azure Data Factory para la orquestación de pipelines.
Además, se requieren conocimientos sólidos en:
  • Azure Data Factory para construir, automatizar y monitorear pipelines de datos.
  • Azure Data Lake Gen2 para el almacenamiento escalable y seguro de grandes volúmenes de datos.
  • Azure SQL Database y Synapse Analytics para procesamiento y análisis avanzado.
  • Power BI para visualización e interpretación de datos.
  • Lenguajes de programación y scripting como Python, PySpark y T-SQL para manipulación y transformación de datos.
  • Control de versiones con Git.
  • Modelado de datos usando esquemas estrella y copo de nieve, optimizando bases de datos y consultas.
  • Manejo avanzado de formatos de datos complejos como JSON y XML.
El candidato debe ser capaz de trabajar de forma autónoma, tener habilidades comunicativas para colaborar con múltiples equipos y orientarse a resultados con atención al detalle.

Habilidades y certificaciones deseables

  • Certificación Microsoft Azure Data Engineer (DP-203), demostrando dominio avanzado en servicios de datos de Azure.
  • Certificación Power BI Data Analyst (PL-300) para mejorar la capacidad de visualización y análisis de datos.
  • Certificación Scrum Master, lo que contribuiría a una integración más efectiva dentro de equipos ágiles y proyectos iterativos.
  • Nivel de inglés intermedio, tanto oral como escrito, para interactuar en equipos multiculturales y documentación técnica en inglés.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Ofrecemos modalidad 100% remota con apertura a talentos de toda Latinoamérica, garantizando flexibilidad y autonomía en la gestión del tiempo.
Participarás en proyectos innovadores y desafiantes con clientes relevantes en sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional continuo.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Java Python Git SQL
Genesys Tecnologías de Información SpA es una empresa consolidada en Latinoamérica con más de 30 años de experiencia en el mercado, especializada en soporte y mantenimiento de aplicaciones, RPA, inteligencia artificial, QA Automation, staff augmentation, cloud y más. Acompañamos a las empresas en su camino de transformación digital mediante tecnologías de última generación como Cloud, Data Analytics, Artificial Intelligence y Process Automation. Nuestro equipo multidisciplinario colabora estrechamente con la matriz en Santiago y otras operaciones para brindar soluciones tecnológicas que elevan el estándar tecnológico de las organizaciones.

Official source: getonbrd.com.

Responsabilidades

  • Diseñar y desarrollar canalizaciones de datos (ETL/ELT) robustas y eficientes.
  • Colaborar con equipos de ingeniería para asegurar la integración y calidad de los datos.
  • Implementar y gestionar bases de datos y data warehouses escalables.
  • Optimizar el rendimiento de las bases de datos y sistemas de almacenamiento de datos.
  • Garantizar la calidad, integridad y seguridad de los datos dentro de los sistemas.
  • Automatizar procesos de ingestión y transformación de datos para eficiencia operativa.
  • Monitorizar y solucionar problemas relacionados con los sistemas de datos.
  • Documentar procesos, arquitecturas, y mejores prácticas relacionadas con el manejo de datos para facilitar la continuidad y mejora.

Descripción

Buscamos un Data Engineer talentoso y motivado para integrarse a nuestro equipo de datos. El candidato ideal tendrá experiencia demostrable en roles similares, con habilidades para diseñar, construir y mantener sistemas de datos escalables que faciliten el análisis y la toma de decisiones dentro de la organización.
Requisitos imprescindibles incluyen una licenciatura en Ciencias de la Computación, Ingeniería Informática, Matemáticas o un campo relacionado. Debe poseer conocimientos profundos en SQL y experiencia con bases de datos relacionales y no relacionales, además de manejar grandes volúmenes de datos y trabajar con data lakes.
Es fundamental la experiencia con herramientas de procesamiento de datos como Apache Spark y lenguajes de programación Python. También exigimos conocimiento y experiencia con Google Cloud Platform (Composer, Cloud Functions, BigQuery, Dataproc, etc.), uso de Terraform y git para la gestión de infraestructura y código.
Se valoran igualmente las habilidades analíticas, la capacidad para resolver problemas complejos, excelentes habilidades de comunicación y la capacidad de trabajar colaborativamente en equipo. Además, el candidato debe poseer un nivel de inglés intermedio (B1+) para poder participar activamente en reuniones sin dificultades.

Deseable

  • Conocimientos en el lenguaje de programación Java.
  • Certificaciones relevantes en tecnologías de datos y cloud.
  • Experiencia trabajando en equipos ágiles.

Beneficios

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • Haystack News
  • Lima (In-office)
Python Data Analysis SQL NoSQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack feature at Google IO: https://www.youtube.com/watch?v=-YawUi6qPck

Apply to this job directly at getonbrd.com.

Job functions

We are looking for an outstanding Data Scientist to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Data Science, Machine Learning, and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2500 Tiempo completo
Consultor Data Analyst Semisenior/Senior
  • Lisit
  • Santiago (Hybrid)
Data Analysis SQL Artificial Intelligence Data Visualization

En Lisit, somos una empresa dedicada a crear, desarrollar e implementar soluciones de software que proporcionan herramientas de automatización y optimización. Nuestro enfoque se centra en acompañar a nuestros clientes a lo largo de sus procesos de transformación digital, combinando innovación, eficiencia operativa y consultoría especializada. Formarías parte de un equipo apasionado por enfrentar desafíos técnicos complejos mediante el uso de tecnologías avanzadas para entregar valor tangible y sostenible a nuestros clientes.

Find this vacancy on Get on Board.

Responsabilidades del puesto

Como Consultor Data Analyst SemiSenior o Senior, serás responsable de analizar, modelar y transformar datos para extraer insights valiosos que impulsen la toma de decisiones estratégicas. Trabajarás en colaboración con equipos multidisciplinarios para diseñar soluciones basadas en datos que mejoren los procesos internos y la experiencia del cliente.

  • Realizar modelados de datos robustos y eficientes.
  • Desarrollar consultas avanzadas y optimizar bases de datos utilizando SQL.
  • Interpretar y tratar grandes volúmenes de datos para proporcionar análisis claros y accionables.
  • Preparar reportes y visualizaciones que faciliten la comprensión del negocio.
  • Colaborar con áreas técnicas y de negocio para entender requerimientos y traducirlos en soluciones analíticas.
  • Garantizar la calidad y consistencia de los datos procesados.

Requisitos del candidato

Buscamos un profesional con más de 3 años de experiencia en modelado y tratamiento de datos, que posea un conocimiento avanzado en lenguaje SQL y manejo de bases de datos. Es fundamental contar con certificación PL-300, la cual es excluyente para esta posición, dado que asegura competencia en análisis y visualización de datos con tecnologías Microsoft. Además, es deseable tener la certificación DP-600, que indica experiencia en desarrollo de soluciones con inteligencia artificial y bases de datos en Microsoft Azure.

Además de las habilidades técnicas, valoramos cualidades como pensamiento analítico, capacidad para resolver problemas complejos, atención al detalle, y facilidad para comunicar hallazgos a distintos niveles dentro de la organización.

Habilidades y certificaciones valoradas

La certificación DP-600 será altamente valorada, ya que implica conocimientos avanzados en soluciones basadas en inteligencia artificial y bases de datos dentro del ecosistema Microsoft Azure. También se considera un plus la experiencia previa en proyectos de transformación digital, manejo de herramientas de visualización complementarias, y capacidades de trabajo en equipo en entornos ágiles.

Beneficios de trabajar con nosotros

En Lisit promovemos un ambiente laboral dinámico, basado en la innovación constante y el crecimiento profesional. Formarás parte de un equipo que acompaña a clientes en procesos de transformación digital, aplicando las mejores prácticas y tecnologías actuales.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

This job is published by getonbrd.com.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2500 Tiempo completo
Especialista BI – Ssas + Power BI ( Latam)
  • I2B Technologies
Business Intelligence ETL Power BI Data Visualization

I2B Technologies es una empresa reconocida por su acompañamiento permanente a clientes para lograr un salto cualitativo en sus negocios, enfocándose en proyectos de alto impacto que mejoran la calidad de vida de los usuarios. La empresa posee una trayectoria consolidada en proyectos de transformación digital exitosos, basados en consultoría, desarrollo de software, evolución y data science. Como parte del área de Inteligencia de Negocios, participarás en proyectos estratégicos que ofrecen soluciones analíticas de alto valor para mejorar la experiencia y resultados de las empresas con sus usuarios.

Apply directly on the original site at Get on Board.

Responsabilidades del rol

  • Modelado de cubos en SQL Server Analysis Services (SSAS), tanto tabulares como multidimensionales.
  • Desarrollo de dashboards ejecutivos en Power BI, incluyendo visualizaciones complejas y avanzadas.
  • Gobierno y administración de reportes, incluyendo performance y seguridad.
  • Apoyo en la arquitectura de soluciones analíticas y procesos relacionados.

Requisitos técnicos

  • Experiencia sólida en diseño y modelado de cubos en SSAS.
  • Conocimiento avanzado en Power BI, incluyendo DAX avanzado, Power Query y creación de visualizaciones complejas.
  • Conocimientos en Data Warehouse y flujos ETL para manejo integrado de datos.
  • Buen manejo y comprensión de KPIs corporativos para la elaboración de reportes relevantes.
  • Se valoran habilidades analíticas, orientación al detalle y capacidad de trabajo en equipo remoto.

Competencias deseables

  • Experiencia previa en proyectos remotos para clientes de Latinoamérica.
  • Conocimientos en otras herramientas de BI o plataformas de datos.
  • Capacidad proactiva para proponer mejoras en procesos analíticos.
  • Habilidades de comunicación efectiva para trabajo colaborativo.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Library Access to a library of physical books.
Wellness program I2B Technologies offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Digital library Access to digital books or subscriptions.
Computer provided I2B Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista BI
  • SONDA
  • Santiago (Hybrid)
Data Analysis SQL Business Intelligence Big Data

En SONDA, la Innovación es parte de nuestro ADN.
Miramos hacia el futuro focalizándonos en las últimas tendencias y noticias sobre innovación, tecnologías con impacto y sostenibilidad.
Conocemos los desafíos y demandas de la región y contamos con un amplio portafolio de soluciones de negocio especializadas en las principales industrias del mercado.

Vive la experiencia SONDA en nuestra unidad de negocio Digital Application Services.

Apply to this posting directly on Get on Board.

· Desarrollar y brindar nuevas soluciones de inteligencia empresarial a través del análisis y medición de la calidad de la información utilizada por la empresa para la toma de decisiones, con el fin de maximizar su utilidad.

· Ser responsable de apoyar la recolección, verificación de calidad, compilación, análisis y promoción de interpretaciones correctas de datos.

· Apoyar en el desarrollo de soluciones mediante el uso de plataformas de Business Intelligence (self-service BI), preparación de cuadros de mando e informes para apoyo a la gestión, estructuración, análisis, carga, inclusión, exclusión, alteración y consulta de datos relacionales, multidimensionales y geográficos.

Requerimientos del cargo

· Título profesional o licenciatura es: Ingeniería Civil o Ejecución en Computación e Informática o carrera técnica o profesional afín al rol, con más de 3 años de experiencia en cargos similares.

· Más de 3 años de experiencia en el análisis, diseño e implantación de sistemas de soporte de decisiones (dashboard, scorecard, etc.)

· Más de 3 años de experiencia en el desarrollo de reportes estadísticos.

· Más de 3 años de experiencia en el análisis y gestión de requerimientos para resolver problemas en el ámbito del BI.

· Más de 3 años de experiencia en el desarrollo de proyectos de integración de datos para Data Warehouse o Data Lake.

· Más de 3 años de experiencia en el desarrollo de procesamientos sobre datos (procesamiento SQL).

Idealmente se espera que puedas tener alguna certificación o curso en alguno de estos tópicos:

· Magíster, Diplomado, Postgrado o curso de 40 horas o más atingente a Inteligencia de Negocio o Analítica de Datos.

· Certificaciones/Cursos de desarrollo de reportes y uso de herramientas de visualización.

· Certificaciones/Cursos de bases de datos o SQL.

· Certificaciones/Cursos en herramientas de Integración de datos (ETL).

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Tienda Pago
  • Ciudad de México (Hybrid)
Python SQL Big Data Back-end

✨ ¡En Tienda Pago, estamos revolucionando el mundo de las finanzas en Latinoamérica! ✨

Somos una fintech multicultural 🌎 con operación en México y Perú y colaboradores en Colombia, Argentina, República Dominicana ¡y más países! 🚀 Nuestra misión es única: impulsar a las tienditas y bodegas de barrio a crecer💪. ¿Cómo lo hacemos? A través de una plataforma digital innovadora que les da acceso a créditos para que puedan surtirse mejor y vender más 🛍️. Ofrecemos préstamos personales, crédito de inventario y recargas de celular, ¡todo con la última tecnología! 📲

En Tienda Pago, creemos en la inclusión financiera a través de la innovación💡. Llevamos + de 10 años haciendo la diferencia en la base de la pirámide económica, brindando oportunidades a quienes más lo necesitan💖.

¡Seguimos creciendo! Estamos búsqueda de un Data Engineer en CDMX para incorporar en nuestro equipo de Tech🤝

Originally published on getonbrd.com.

¿Cuál es el objetivo principal de la posición? 🧑‍💻

Buscar un enfoque estratégico, liderar proyectos de medios a complejos, establecer las mejores prácticas, ejecución de tareas complejas. El candidato ideal es un profesional que trabaje indispensablemente con autonomía, lidere proyectos medios a complejos, establezca las mejores prácticas y actúe como mentor para los miembros más junior del equipo. Busque un enfoque estratégico, responsable de la modelación de datos y la toma de decisiones que afectarán la escalabilidad y eficiencia a largo plazo.

¿Cuáles serán tus principales responsabilidades? 🤔

  • Diseño y construcción de arquitecturas de modelos escalables y robustas.
  • Experiencia para implementación de diferentes técnicas de modelado como datawarehouse, data lakes y data mesh, utilizando metodologías ágiles.
  • Habilidad para diseñar, desarrollo y mantenimiento de los procesos de ingesta e integración de datos, modelos de análisis y tableros de control en esto deberá incluir optimizar pipelines complejos reduciendo costos y mejorando eficiencia.
  • Desarrollar set de datos que sean incluidos en procesos de minería y modelado de datos para datos estructurados y no estructurados.
  • Habilidad para entender los objetivos del negocio y traducirlos en una estrategia de datos a corto, mediano y largo plazo.
  • Realizar flujo completo para un proyecto de manera autónoma: análisis, diseño y bajar la idea para que él/ella o alguien del equipo lo pueda desarrollar, seguimiento hasta después de la entrega.
  • Autonomía para el manejo e interacción con las áreas de negocio.
  • Tener autoridad para tomar decisiones técnicas y que pueda presentar los resultados de forma clara orientados a los diferentes Stakeholders.
  • Detectar, diseñar e implementar nuevos atributos, estructuras, métricas o indicadores de acuerdo con las políticas de calidad, seguridad y gobernanza de Datos de Tienda Pago.
  • Capacidad para guiar a otros ingenieros, revisar el código y fomentar crecimiento profesional

¿Qué requerimos de ti para hacer un buen match? 💘

  • Mínimo 4 años de experiencia en ingeniería de datos.
  • Manejo de SQL Avanzado.
  • Lógica de programación, idealmente en Python, pero podemos considerar profesionales en otros lenguajes.
  • Implementación de colas de mensajes y servicios de mensajería y streaming.
  • Integración de datos (Data Lake, Data Warehouse, SQL).
  • Modelado de datos.
  • Abstracción y conceptualización de ideas.
  • Relación de patrones y piezas faltantes.
  • Gobernanza de datos y seguridad.
  • Experiencia en automatización de infraestructura.
  • Disponibilidad para trabajar full time - híbrido. 90% remoto; se pide ir a la oficina cerca de 2 veces al mes. Estamos ubicados en Calle Buffon, No. 46, Piso 9, Colonia Anzures, Miguel Hidalgo.CDMX, CP. 11590.

Deseables (NO son obligatorios, solo son un plus)

  • Plataforma Azure, Integration Services, DBT, DAX, Power BI (de intermedio a avanzado) .

Algunos de Nuestros Beneficios en México 🤩

  1. Aguinaldo superior a la ley.
  2. Prima Vacacional 100%
  3. Vacaciones otorgadas de acuerdo a ley, partiendo de 12 días hábiles durante el primer año e incrementando progresivamente por cada año cumplido.
  4. Días libres, asignación de 08 días libres Tienda Pago durante el primer año y luego se reajusta proporcionalmente a las vacaciones de acuerdo a la política dias libres Tienda Pago.
  5. Día libre por tu cumpleaños a elección (mismo día que cumples años o cualquier día del mes que estás de cumpleaños).
  6. Días festivos no oficiales.
  7. Seguro de Gastos Médicos Mayores.
  8. Dentegra (Beneficio Adicional del Seguro de Gastos Médicos Mayores).
  9. Seguro de Vida.
  10. Si te gusta constantemente seguir aprendiendo y perfeccionando tus conocimientos, tenemos una plataforma padrísima llamada Ubits😏.

¡Conversemos y entérate de los otros beneficios!🥳

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Tienda Pago pays or copays health insurance for employees.
Computer provided Tienda Pago provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Tienda Pago gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
Java Python SQL NoSQL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Engineer Ssr para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

© getonbrd.com.

Job functions

Estamos en búsqueda de un/a Data Engineer con experiencia y proactividad para sumarse a nuestro equipo en modalidad híbrida desde Santiago de Chile. Buscamos una persona con conocimientos sólidos en procesos de datos, cloud computing (especialmente GCP), y procesamiento distribuido.

Responsabilidades Principales

  • Diseñar y construir pipelines de datos robustos para procesos de ingesta, transformación y carga (ETL/ELT).
  • Aplicar buenas prácticas en el manejo de datos: seguridad, gobernanza y cumplimiento.
  • Trabajar con sistemas de procesamiento distribuido para manejar grandes volúmenes de datos.
  • Colaborar con equipos interdisciplinarios para impulsar decisiones basadas en datos.
  • Implementar soluciones escalables y eficientes utilizando herramientas de Google Cloud Platform (GCP).

Qualifications and requirements

  • Experiencia en creación de pipelines de datos y procesos de ETL.
  • Conocimientos sólidos en buenas prácticas de manejo de datos (seguridad, gobernanza, escalabilidad).
  • Experiencia en procesamiento distribuido.
  • Dominio de Python (Java es deseable).
  • Conocimientos en bases de datos SQL y NoSQL, especialmente MongoDB y BigQuery.

Experiencia con herramientas de GCP

  • Pub/Sub
  • Dataflow
  • Dataproc
  • Dataprep
  • Cloud Functions
  • BigQuery
  • Composer
  • Cloud Storage

Desirable skills

Experiencia en arquitectura de datos o entornos DevOps aplicados a datos.

Familiaridad con prácticas de CI/CD en flujos de datos.

POSTULAR VÍA WEB Ver trabajo
Gross salary $5000 - 7000 Tiempo completo
Senior Cdp Manager / Operator
  • Zaelot
Python Analytics SQL Data governance

Zaelot is a fast-growing technology company specialized in building scalable solutions for enterprise clients worldwide. With a team of over 90 professionals spread across 9 countries, Zaelot cultivates a culture based on trust, reliability, and collaboration to deliver innovative and effective technology products. The project focus for this role is managing Customer Data Platforms (CDPs), which are critical for enabling clients to unify, govern, and leverage their customer data efficiently. Our CDP team works closely with product, engineering, and analytics stakeholders to ensure data quality and operational excellence, driving better business outcomes through optimized customer data flows and identity resolution.

Exclusive to Get on Board.

Key Responsibilities

  • Lead the end-to-end configuration, deployment, and ongoing management of Customer Data Platforms such as Segment, Hightouch, Rudderstack, or similar tools across diverse client environments.
  • Own the creation and maintenance of tracking plans, enforce data schemas strictly, and manage customer identity resolution and audience trait development to deliver accurate and actionable customer insights.
  • Design, build, and optimize reverse ETL (Extract, Transform, Load) pipelines and destination syncs to ensure seamless data movement between CDPs and downstream systems.
  • Implement and maintain best practices around naming conventions, user roles administration, permissions, and rigorous data quality assurance (QA) processes to uphold platform integrity.
  • Provide operational enablement through detailed documentation, training, and support aimed at both internal teams and client users to maximize platform adoption and efficiency.
  • Continuously monitor platform health metrics, proactively identifying and resolving operational issues in collaboration with engineering and support teams.

Role Requirements

We are seeking an experienced Senior CDP Manager with a strong technical background and hands-on expertise in managing customer data platforms. The ideal candidate will have between 3 and 5 years of practical experience working with CDP tools such as Segment, Hightouch, Rudderstack, or equivalents, exhibiting deep knowledge of data flows, identity resolution, and audience management techniques.

The role demands a strong understanding of event-based data architecture and familiarity with product analytics platforms like Amplitude or Mixpanel to ensure effective integration and utilization of data insights. Attention to detail is critical, especially regarding documentation accuracy, configuration hygiene, and enforcing data governance standards.

This position requires excellent communication skills to effectively collaborate with both technical and non-technical stakeholders, facilitating clear understanding and alignment on CDP-related initiatives and operational support.

Preferred Qualifications

It is advantageous to have experience in marketing technology stacks beyond CDPs, such as advanced analytics, campaign management platforms, or CRM tools. Familiarity with scripting or programming languages (e.g., SQL, Python) to build custom data pipelines or automate workflows is desirable. Prior exposure to enterprise data governance policies or compliance regulations will add value to the role.

Strong problem-solving abilities, proactive mindset, and a drive for continuous learning in the rapidly evolving CDP and data ecosystem are highly appreciated.

What We Offer

  • 20 days of paid vacation after one year to support a healthy work-life balance.
  • Incentive programs including referral bonuses and finder's fees for successful candidate recommendations.
  • Robust continuous learning opportunities with training and certification programs.
  • Work-from-home support to ensure a comfortable and productive environment.
  • English language classes and fitness programs promoting professional and personal growth.
  • Profit sharing and coaching sessions fostering collective success and development.

At Zaelot, we foster a supportive and innovative culture where your skills and ambitions are valued. Join our diverse team dedicated to excellence and continuous improvement, and contribute to impactful enterprise solutions.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $6500 - 7500 Tiempo completo
Data Engineer / Data Architect
  • Zaelot
Python SQL Web server Big Data
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

Apply from getonbrd.com.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2800 Tiempo completo
Data Ops
  • coderslab.io
  • Santiago (Hybrid)
Python SQL DevOps Big Data

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Ops para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Job opportunity on getonbrd.com.

Funciones del cargo

• Definir, construir y mantener de forma automatizada nuestras bases de datos relacionales y NO relacionales en los distintos ambientes cloud (Público y Privado).
• Colaborar en la construcción y el soporte de nuestra plataforma cloud y sus servicios.
• Colaborar con los equipos de producto identificando restricciones y requerimientos, definiendo arquitecturas de solución y aprovisionando las capacidades de la plataforma que permitan cumplir los atributos de calidad de los productos.
• Participar activamente en espacios de colaboración, mentoreando personas y equipos, e identificando oportunidades de mejora.

Requerimientos del cargo

Conocimientos lenguaje Python
Tener conocimientos de la nube GCP intermedio/avanzado y su gama de productos para serverless y contenedores (Cloud Run, Cloud Scheduler, etc)
Poseer experiencia en Bigquery (SQL)
Gitlab CI
Terraform intermedio/avanzado (generar nuevos módulos, debug de state, etc)
Manejo en GKE nivel administración
Nivel básico/intermedio en Unix (consola)
Deseable:
Estar instruido en IAM de GCP (herencia de IAM, impersonalización, principio de mínimos permisos, etc)
Conocimientos de networking tanto “on-premise” y en la nube GCP
Haber trabajado con K8S “on-premise” y tener nivel intermedio de conocimiento a nivel administración y mantención de nodos
Conocimientos en ArgoCD y Airflow/Composer
Compromiso con las responsabilidades
Manejo de herramientas de IA (Copilot, Gemini, Cursor, etc)
Conocimientos en arquitectura hexagonal y testing con Python
Estar familiarizado con el ciclo de vida DevOps

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1700 Tiempo completo
Analista de Datos BI
  • S3 Chile
  • Santiago (Hybrid)
Python Analytics MySQL PostgreSQL
S3 Chile es una empresa líder en la entrega de servicios de outsourcing especializada en procesos de negocio. Nuestro enfoque está en brindar soluciones integrales que permiten a nuestros clientes optimizar sus operaciones a través de la gestión eficiente de datos y análisis avanzado. El equipo de análisis de datos juega un rol fundamental, colaborando con diversas áreas como marketing, ventas y negocios para impulsar estrategias basadas en inteligencia analítica. Nuestra misión es ofrecer un entorno de aprendizaje continuo y profesionalización en consonancia con las últimas tendencias tecnológicas, fomentando el crecimiento tanto del equipo como de la organización. Ser parte de S3 Chile significa contribuir directamente al éxito de grandes clientes mediante innovación y manejo experto de datos.

Exclusive offer from getonbrd.com.

Responsabilidades principales

  • Análisis de datos: Recopilar, limpiar y analizar grandes volúmenes de datos provenientes de diversas fuentes para identificar tendencias, patrones y oportunidades de mejora.
  • Desarrollo de modelos predictivos y estadísticos: Diseñar y construir modelos estadísticos y algoritmos para predecir resultados, evaluar riesgos y optimizar procesos empresariales.
  • Visualización de datos: Crear visualizaciones claras e impactantes mediante herramientas como Tableau y Power BI para comunicar hallazgos de manera efectiva a las partes interesadas.
  • Elaboración de informes y presentaciones: Preparar reportes detallados y presentaciones ejecutivas que resuman insights clave y recomendaciones prácticas para equipos ejecutivos y operativos.
  • Colaboración interdisciplinaria: Trabajar estrechamente con equipos de negocio, marketing, ventas y tecnología para definir requerimientos, validar hipótesis y co-crear soluciones basadas en datos.

Habilidades y competencias requeridas

  • Conocimientos en estadística y matemáticas: Dominio de conceptos avanzados como regresión, correlación, análisis de varianza (ANOVA) y otras técnicas estadísticas aplicadas.
  • Programación: Experiencia sólida en lenguajes como Python, R y SQL para manipulación de datos, construcción de modelos y automatización de procesos.
  • Manejo de herramientas analíticas: Capacidad para utilizar herramientas como Excel avanzado, Tableau, Power BI y otras plataformas de visualización y análisis.
  • Bases de datos: Conocimiento práctico en gestión y consultas sobre bases de datos relacionales como MySQL y PostgreSQL.
  • Plataformas de análisis digital: Familiaridad con Google Analytics, Mixpanel y otras herramientas para análisis de comportamiento en entornos digitales.
  • Pensamiento crítico y resolución de problemas: Aptitud para examinar situaciones complejas, identificar causas raíz y generar soluciones innovadoras y eficientes.
  • Comunicación efectiva: Habilidad para explicar conceptos técnicos complejos en un lenguaje claro, adaptado a diferentes audiencias, facilitando la toma de decisiones basadas en datos.
Requisitos académicos y experiencia:
  • Título universitario en Ingeniería Comercial, Ingeniería Civil, Estadística, Matemáticas, Ciencias de la Computación o áreas afines.
  • Experiencia mínima de 2 a 3 años en análisis de datos o roles relacionados, preferiblemente en entornos empresariales.
  • Certificaciones profesionales como Certified Data Analyst (CDA) o Certified Analytics Professional (CAP) serán consideradas un plus significativo.

Habilidades y conocimientos deseables

  • Experiencia en manejo de grandes volúmenes de datos (Big Data) y conocimiento de herramientas o frameworks asociados.
  • Conocimiento en técnicas de machine learning y su aplicación práctica en modelos predictivos.
  • Familiaridad con metodologías ágiles de trabajo y gestión de proyectos.
  • Experiencia previa trabajando en equipos multidisciplinarios y en ambientes dinámicos.
  • Habilidades avanzadas en storytelling con datos para mejorar la comunicación visual y estratégica.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos que incluyen programas de bienestar y capacitaciones continuas.
👥 Un equipo comprometido que promueve un entorno de aprendizaje constante alineado con los nuevos avances tecnológicos.
Entorno colaborativo, flexible y remoto, alineado con las necesidades actuales del mercado laboral en Chile.

Health coverage S3 Chile pays or copays health insurance for employees.
Computer provided S3 Chile provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Management
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence

Banco Santander Chile es una institución financiera líder en el país, reconocida por su enfoque en ayudar a personas y empresas a progresar mediante soluciones innovadoras y personalizadas. El área de banca comercial se dedica a diseñar y ejecutar estrategias comerciales que optimizan la rentabilidad de la cartera de clientes, utilizando tecnología avanzada para la gestión de datos y el desarrollo de herramientas propias que potencian la toma de decisiones y la experiencia del cliente.

Este equipo trabaja en la constante búsqueda y aplicación de nuevas tecnologías para mejorar las acciones comerciales y asegurar que las iniciativas estén disponibles y sean efectivas en los diferentes canales digitales y presenciales del banco.

This job is original from Get on Board.

Responsabilidades principales

Como data management, tus responsabilidades incluirán:

  • Participar en la generación de fuentes de información con los distintos atributos y variables calculadas.
  • Automatizar el despliegue de las acciones comerciales con los distintos actores de canales del banco.
  • Recomendar nuevas tecnologías para mejorar el despliegue y la búsqueda de nuevas acciones de las campañas dentro del equipo de inteligencia comercial.
  • Coordinar y desplegar las ofertas y/o campañas a los distintos canales del banco Santander.
  • Automatizar el despliegue de los Journeys (con Salesforce Marketing Cloud y Adobe Experience Platform - AJO) en base a los distinto eventos de nuestros clientes.

Perfil y experiencia requerida

Buscamos profesionales con experiencia en programación orientada a la gestión comercial en el sector financiero o afines. Se valoran conocimientos sólidos en análisis de datos, manejo de bases de datos y desarrollo de software aplicado a procesos comerciales.

Entre las habilidades técnicas y competencias destacan:

  • Experiencia en lenguajes de programación y explotación de datos, de al menos, 1 año.
  • SQL avanzado
  • Python avanzado en análisis de datos
  • Manejo de Tableau
  • Manejo de Power BI
  • Proactividad en la búsqueda constante de innovación tecnológica aplicable a la función.

Se valoran además habilidades blandas como la adaptación al cambio, resiliencia, y pensamiento crítico orientado a la mejora continua.

Conocimientos y experiencia complementarios

Será un plus contar con experiencia previa en bancos o instituciones financieras y manejo de herramientas como SalesForce Marketing Cloud y AJO de Adobe Experience Platform . Conocimientos en metodologías ágiles para proyectos de desarrollo tecnológico también serán bien valorados.

Habilidades adicionales en visualización de datos, para impulsar la innovación en las acciones comerciales serán una ventaja competitiva.

Beneficios y oportunidades de crecimiento

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1900 - 2500 Tiempo completo
Ingeniero de Datos Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL Big Data
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is exclusive to getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener ingestas de datos hacia Google Cloud Platform.
  • Implementar pipelines ETL eficientes y escalables para procesamiento de datos.
  • Colaborar con equipos técnicos y de negocio para asegurar la calidad y disponibilidad de la información.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando BigQuery, Cloud Functions, Airflow y Cloud Storage.
  • Utilizar DBT para transformación y modelado de datos (ideal).
  • Controlar versiones y colaborar en el desarrollo mediante herramientas como GitLab, Bitbucket o GitHub.
  • Documentar procesos y asegurar buenas prácticas en el manejo de datos.
  • Apoyar en la identificación y resolución de problemas técnicos relacionados con ingesta y procesamiento de datos.

Requerimientos del cargo

  • Conocimientos técnicos obligatorios:
    • Desarrollo de proyectos ETL en Google Cloud Platform (GCP).
    • Uso avanzado de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
    • Experiencia ideal con DBT (Data Build Tool).
    • Dominio de lenguajes SQL y Python.
    • Manejo de gestores de versionamiento: GitLab, Bitbucket o GitHub.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2500 Tiempo completo
Ingeniero de Datos Semi Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL Big Data
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply to this job from Get on Board.

Funciones del cargo

  • Desarrollar y mantener pipelines ETL para ingesta, transformación y carga de datos en GCP.
  • Modelar datos para asegurar la calidad, integridad y optimización en BigQuery.
  • Implementar soluciones usando Cloud Functions, Airflow y Cloud Storage para automatización y orquestación de procesos.
  • Colaborar con equipos multidisciplinarios para cumplir con los objetivos del proyecto Lago de Datos 2.0.
  • Utilizar DBT para la transformación y modelado de datos (cuando aplique).
  • Gestionar versiones y colaborar en el control de código mediante GitLab, Bitbucket o GitHub.
  • Documentar procesos técnicos y mantener buenas prácticas en el manejo de datos.

Requerimientos del cargo

  • Experiencia en desarrollo de proyectos de datos (ETLs) en Google Cloud Platform (GCP).
  • Conocimiento y manejo de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
  • Experiencia ideal con DBT (Data Build Tool).
  • Dominio de lenguajes SQL y Python.
  • Experiencia con gestores de versionamiento como GitLab, Bitbucket o GitHub.
  • Experiencia en modelado de datos en GCP.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply directly on Get on Board.

Funciones del cargo

-Desarrollo de componentes en Python
-Utilización de BigQuery:Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
-Transformación de Datos:Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
-Pruebas de Precisión de Datos:Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
-Seguimiento de Cambios:Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
-Construcción de Modelos de Datos: Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
-Escritura de Código de Transformación: Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
Implementación y Documentación: Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

-Programación
-Python
-SQL: Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.-GCP
-BigQuery : Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos
-Kubernetes
-Docker

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 6 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista Desarrollador de Datos
  • coderslab.io
  • Lima (Hybrid)
Agile PostgreSQL SQL Oracle

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista Desarrollador de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply directly through getonbrd.com.

Job functions

Buscamos Analistas Desarrolladores de Datos Semi Senior para sumarse a un proyecto estratégico dentro del área de Operaciones y Sistemas. Serán responsables del diseño, desarrollo y automatización de procesos de integración de datos, participando en una célula ágil orientada a la eficiencia operativa.

🛠️ Responsabilidades

  • Desarrollar procesos ETL utilizando Informatica PowerCenter y/o IDMC.
  • Diseñar, implementar y optimizar consultas y procedimientos en bases de datos Oracle, PostgreSQL y SQL Server.
  • Automatizar procesos recurrentes vinculados a la integración y tratamiento de datos.
  • Documentar desarrollos y flujos implementados.
  • Colaborar con el equipo técnico y funcional para entender los requerimientos y proponer soluciones eficientes.
  • Asegurar la calidad, seguridad y disponibilidad de los datos procesados.
  • Participar de reuniones de seguimiento del proyecto bajo metodología ágil.

Qualifications and requirements

  • Mínimo 3 años de experiencia en desarrollo con Informatica PowerCenter y/o IDMC.
  • Mínimo 3 años de experiencia en desarrollo sobre Oracle, PostgreSQL y SQL.
  • Mínimo 1 año de experiencia en automatización de procesos.
  • Disponibilidad inmediata.

Desirable skills

Deseables

  • Conocimientos en herramientas de scheduling como Control M.
  • Experiencia en procesos bancarios, especialmente conciliación y contabilización de transacciones.

Conditions

Modalidad de contratación: Plazo fijo
Duración del proyecto: 4 - 9 meses
Hibrido en Lima Peru

POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL BigQuery ETL
En BC Tecnología, somos una consultora TI enfocada en brindar servicios integrales de outsourcing, desarrollo de proyectos y consultoría para clientes de sectores financieros, seguros, retail y gobierno. Nos especializamos en formar equipos ágiles y multidisciplinarios que aportan soluciones tecnológicas de vanguardia. Actualmente, estamos reclutando para un proyecto de 6 meses que involucra el desarrollo de pipelines de datos y arquitecturas en Google Cloud Platform, destinados a optimizar el manejo y análisis de grandes volúmenes de información.

Apply directly at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT en Google Cloud Platform para asegurar el flujo eficiente y confiable de datos.
  • Implementar soluciones utilizando productos como BigQuery, Cloud Functions, Airflow y Cloud Storage que soporten procesos analíticos y de negocio.
  • Optimizar consultas SQL y desarrollar scripts en Python para manipulación y transformación de datos.
  • Gestionar versiones y colaborar dentro del equipo utilizando herramientas de control de código como GitLab, GitHub o Bitbucket.
  • Aplicar buenas prácticas en desarrollo, pruebas y documentación técnica.
  • Colaborar en un entorno ágil, trabajando de forma híbrida entre la oficina en Santiago Centro y remoto.

Requisitos y experiencia

Buscamos un profesional con al menos tres años de experiencia demostrable en desarrollo de proyectos de gestión y procesamiento de datos en Google Cloud Platform. Es indispensable tener conocimientos sólidos en SQL y Python para la manipulación y transformación de datos en entornos analíticos. Además, se requiere experiencia práctica con productos clave de GCP, incluyendo BigQuery para almacenamiento y consultas masivas, Cloud Functions para ejecución de funciones serverless, Airflow para orquestación de flujos de trabajo y Cloud Storage para almacenamiento escalable.
El candidato debe estar familiarizado con herramientas de control de versiones como GitLab, GitHub o Bitbucket, que facilitan el trabajo colaborativo y la gestión de código. La capacidad para adaptarse a un modelo híbrido de trabajo, combinando presencialidad en Santiago Centro con trabajo remoto, es fundamental.
Se valoran cualidades como la proactividad, el enfoque orientado al detalle, habilidades comunicativas para trabajo en equipo y la capacidad para afrontar desafíos técnicos en proyectos dinámicos y exigentes.

Conocimientos adicionales deseables

Se considerará un plus la experiencia trabajando con DBT (Data Build Tool), que facilita el desarrollo y mantenimiento de modelos de datos dentro de pipelines modernos. Contar con certificaciones en plataformas cloud, especialmente en Google Cloud Platform, y experiencia previa en proyectos relacionados con áreas financieras o retail, será valorado positivamente.
El manejo de metodologías ágiles y experiencia en la documentación y automatización de procesos ETL fortalecerán el perfil, ya que colaboramos con equipos multidisciplinarios en entornos colaborativos e innovadores.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio entre vida laboral y personal.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Virtualization Amazon Web Services
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

Applications at getonbrd.com.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en Modelos Analíticos Avanzados
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data Azure
En BC Tecnología, somos una consultora de servicios IT con más de 6 años de experiencia diseñando y desarrollando soluciones tecnológicas acorde a las necesidades de nuestros clientes. Nuestra oferta abarca desde la consultoría y diseño de soluciones, pasando por la formación de equipos y outsourcing de personal, hasta el desarrollo y soporte de proyectos en diversas industrias como servicios financieros, seguros, retail y gobierno. Nos especializamos en crear equipos ágiles, adaptados para trabajar en áreas de infraestructura tecnológica y desarrollo de software, brindando productos y servicios que apoyan la evolución digital de nuestros clientes.

Job opportunity on getonbrd.com.

Responsabilidades principales

  • Participar activamente en todas las etapas del ciclo de vida del análisis de datos, incluyendo la identificación, estructuración y preparación de datos relevantes para el proyecto.
  • Diseñar, desarrollar e implementar modelos analíticos avanzados, empleando técnicas de estadística clásica y aprendizaje automático para extraer insights clave.
  • Construir visualizaciones de datos efectivas para monitorear periódicamente los indicadores clave de desempeño (KPIs) y facilitar la comprensión de los resultados.
  • Comunicar claramente los hallazgos y resultados analíticos a las áreas de negocio para apoyar la toma de decisiones estratégicas.
  • Llevar a cabo el mantenimiento evolutivo y la optimización continua de los modelos analíticos desplegados, asegurando su calidad, escalabilidad y rendimiento en producción.
  • Colaborar estrechamente con los equipos de ingeniería para garantizar el correcto despliegue y funcionamiento de los modelos en ambientes productivos.
  • Desarrollar e implementar APIs para facilitar el acceso y consumo de los modelos analíticos por otras aplicaciones y servicios internos.
  • Aplicar un enfoque crítico y orientado al negocio para resolver problemas complejos y aportar soluciones efectivas basadas en datos.

Perfil requerido

Buscamos un profesional con título en Ingeniería, Economía, Estadística o carreras afines, con sólida capacidad analítica tanto cuantitativa como cualitativa. Es fundamental poseer experiencia comprobada en el diseño, desarrollo y despliegue de modelos analíticos avanzados, trabajando en conjunto con equipos técnicos en ambientes productivos.
El candidato debe contar con conocimientos avanzados en estadística aplicada, aprendizaje automático, y metodologías analíticas modernas. Además, se requiere un dominio fuerte de SQL para manipulación y consulta de bases de datos, así como programación en Python y PySpark para procesamiento de datos a gran escala.
Es muy valorada la experiencia trabajando con plataformas Azure y Databricks para la gestión y explotación de big data. También es importante la experiencia en el desarrollo y consumo de APIs para integración de modelos y aplicaciones.
Buscamos un profesional comprometido, rigoroso, con actitud crítica y capacidad para presentar resultados de forma clara, orientado a resolver problemas desde una perspectiva de negocio e impacto.

Requisitos deseables

Serán considerados plus aquellos candidatos con experiencia adicional en técnicas de deep learning, manejo de otras herramientas de visualización de datos avanzadas, conocimientos en arquitecturas de microservicios y habilidades en automatización de pipelines analíticos.
Además, se valorará la experiencia en trabajo en equipos multidisciplinarios bajo metodologías ágiles, buen manejo de comunicación efectiva, y disposición para aprendizaje continuo en nuevas tecnologías emergentes.

Beneficios y cultura empresarial

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Relocation offered If you are moving in from another country, BC Tecnología helps you with your relocation.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6000 Tiempo completo
Sr. Business Intelligence Engineer
  • Kore RPO
SQL Business Intelligence TSQL Azure

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

We are looking:

  • An excellent communicator across all organizational levels with the ability to derive insights from data.
  • A professional with sound judgment and decision-making skills.
  • A self-starter with a strong sense of urgency.
  • A creative, energetic problem solver with flexibility in approach.
  • A relationship-builder with leadership capabilities.

© getonbrd.com. All rights reserved.

Job functions

  • Deliver and improve prioritized enterprise-certified data assets to support analytics, reporting, and visualization.
  • Design, build, test, and maintain end-to-end data solutions within a global analytics environment using established design patterns and modeling techniques.
  • Promote tools and data usage for increased organizational data access and decision-making capabilities.
  • Explore and integrate internal/external data sources for analysis and development using tools like datalake, databricks, and synapse.
  • Collaborate with product teams to support large-scale business initiatives, perform data modeling, validate/report data, and deliver insights to stakeholders.
  • Respond to ad-hoc analytical needs with validated, actionable findings.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Technology, or equivalent experience.
  • 4+ years of hands-on experience with Data/BI delivery for data warehouses and related applications.
  • 3+ years of experience in Azure SQL and services.
  • Experience with Microsoft Power BI for data visualization.
  • Technical and/or business experience designing BI solutions.
  • Familiarity with installation, configuration, and stabilization of BI/Enterprise Reporting implementations.
  • Knowledge of relational and dimensional modeling and data warehousing methodologies.
  • Expertise in writing T-SQL and DAX.
  • Experience in creating application support documentation for production changes.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2300 - 2500 Tiempo completo
Data Reporting Engineer
  • Contac Ingenieros
  • Santiago (Hybrid)
Python Data Analysis SQL Azure

En Contac buscamos aportar y potenciar los equipos especializados de nuestros clientes, agregando valor a sus procesos a través de la experiencia de nuestros profesionales.
El equipo de trabajo está orientado a desarrollar, implementar y mantener sistemas avanzados de reportes y visualización de datos, con la finalidad de mejorar la gestión empresarial.

Apply without intermediaries from Get on Board.

Principales Desafíos

En esta posición, serás el protagonista en la transformación de datos en conocimiento relevante para la toma de decisiones estratégicas dentro de la minería.

  • Diseñar, desarrollar y optimizar reportes y herramientas de visualización que faciliten el acceso y análisis de la información, asegurando que sea clara y estratégica para los diferentes niveles de la organización.
  • Construir, mantener y mejorar las plataformas de datos que alimentan las soluciones de reportabilidad, garantizando la integridad y actualización continua de la información.
  • Integrar y gestionar procesos ETL (Extract, Transform, Load) para asegurar que la información sea confiable, oportuna y eficiente, soportando la toma de decisiones diarias.

Conocimientos Claves y Requisitos

Buscamos profesionales con un perfil técnico avanzado que combine conocimientos en ingeniería con habilidades sólidas en análisis y visualización de datos dentro del sector minero.

  • Python avanzado, con experiencia práctica utilizando librerías especializadas como Pandas, NumPy, Matplotlib, Plotly y Dash para manipulación, análisis y creación de visualizaciones dinámicas.
  • SQL avanzado y competencia en manejo y optimización de bases de datos complejas.
  • Power BI avanzado, capaz de construir dashboards impactantes que faciliten la interpretación y comunicación de datos a niveles estratégicos.
  • Experiencia en gestión de ETL y modelamiento de datos, con familiaridad en el ecosistema Azure para administrar y optimizar plataformas de datos en la nube.
  • Título profesional en Ingeniería Civil o Industrial, preferentemente con especialidad en Metalurgia, Química o Minería, aportando una visión práctica de los procesos productivos y operativos mineros.
  • Conocimiento sólido de los procesos mineros y manejo de indicadores clave del negocio para convertir datos en información relevante y accionable.
  • Mínimo 2 años de experiencia específica en reportabilidad y análisis de datos, preferentemente en el sector minero o industrias relacionadas.
  • Inglés Intermedio (B2)
  • Capacidad para trabajar en equipo, pensamiento analítico, atención al detalle, y orientación a resultados con compromiso en entregar soluciones de calidad que agregan valor.

Competencias y Habilidades Deseables

Es valorado contar con habilidades complementarias que potencien el impacto del rol, tales como:

  • Experiencia previa en industrias de minería o sectores industriales similares, aportando contexto y comprensión profunda de los requerimientos del negocio.
  • Conocimientos en otras herramientas de visualización o BI adicionales a Power BI, como Tableau o QlikView.
  • Familiaridad con metodologías ágiles para gestión de proyectos y desarrollo de soluciones analíticas.
  • Capacidad para comunicar hallazgos técnicos a audiencias no técnicas, facilitando la adopción de soluciones basadas en datos.
  • Interés por la innovación tecnológica y aprendizaje continuo en el ámbito de ciencia de datos y análisis avanzado.

Que ofrecemos

  • Una carrera en tecnología y analítica avanzada, con oportunidades de crecimiento y especialización.
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista Senior en ETL Powercenter
  • BC Tecnología
  • Santiago (Hybrid)
SQL ETL Power Center Agile Methodologies
BC Tecnología es una consultora de TI que ofrece servicios especializados en diferentes áreas tecnológicas. Con seis años de experiencia, brindamos soluciones personalizadas en consultoría, formación de equipos ágiles, outsourcing y desarrollo de proyectos para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque está orientado a metodologías ágiles, cambio organizacional y desarrollo de productos, siempre con un claro enfoque en la satisfacción y necesidades del cliente.
El área de integración de datos es una pieza clave dentro de nuestra estructura, apoyando a clientes en la gestión eficiente y segura de su información mediante el diseño y desarrollo de procesos ETL que permiten la migración y transformación efectiva de datos en entornos complejos.

Apply to this job from Get on Board.

Responsabilidades principales

Como especialista senior en ETL utilizando PowerCenter, serás responsable de analizar y diseñar soluciones técnicas que permitan la integración eficiente y precisa de datos para nuestros clientes. Trabajarás en la creación y desarrollo de flujos de trabajo ETL asegurando que los procesos de extracción, transformación y carga cumplan con los estándares de calidad y tiempos definidos.
Además, apoyarás la mejora continua de los procesos existentes y brindarás soporte técnico y documentación detallada para facilitar la operatividad y manejo de los usuarios funcionales. Mantendrás una comunicación estrecha con otros equipos técnicos para coordinar e integrar soluciones en entornos multicapa y complejos, siempre con un enfoque colaborativo y orientado a resultados.
  • Análisis funcional y técnico de requerimientos para integración de datos.
  • Diseño y desarrollo de flujos ETL con PowerCenter.
  • Implementación y mejora continua de procesos de ETL.
  • Elaboración de documentación técnica y soporte a usuarios funcionales.
  • Coordinación con equipos técnicos multidisciplinarios.

Perfil y requisitos técnicos

Buscamos un profesional con al menos 3 años de experiencia comprobada en desarrollo de procesos ETL utilizando PowerCenter, capaz de diseñar soluciones técnicas sólidas y eficientes para la integración de datos. Es fundamental contar con un conocimiento profundo en SQL y experiencia en diseño de soluciones de integración en entornos reales y desafiantes.
El candidato ideal demostrará habilidades en análisis funcional y técnico, autonomía para solucionar problemas técnicos bajo presión, y capacidad para trabajar en equipo, con un fuerte enfoque a la calidad y resultados. Además, se valorará experiencia previa o conocimientos en Control-M para la orquestación de procesos y preferiblemente en el sector financiero o bancario, dado que nuestros clientes principales provienen de este rubro.
Se requieren también competencias interpersonales que faciliten la comunicación con usuarios funcionales y técnicos, adaptabilidad a metodologías ágiles y capacidad de documentación clara y efectiva.

Conocimientos y experiencias valoradas

Será altamente valorado el conocimiento en herramientas de automatización de tareas como Control-M, que aportan a la eficiencia del proceso ETL y su correcta ejecución programada. También se considerará una ventaja tener experiencia o familiaridad previa con el sector financiero y bancario, lo que facilitará la comprensión de los requisitos específicos de la industria y normativas asociadas.
Habilidades adicionales en gestión de proyectos, manejo de metodologías ágiles y experiencia colaborando en equipos multidisciplinarios también serán consideradas importantes para el desempeño óptimo del puesto.

Beneficios y ambiente laboral

Aunque el anuncio no menciona específicamente beneficios o condiciones particulares, en BC Tecnología ofrecemos un ambiente colaborativo donde valoramos el compromiso, el aprendizaje continuo y el trabajo en equipo. Promovemos el desarrollo profesional mediante asignación en proyectos desafiantes con clientes de alto nivel en el sector financiero y otros sectores variados.
Como consultora orientada a soluciones ágiles y a la satisfacción del cliente, fomentamos la integración y coordinación entre equipos, lo que se traduce en oportunidades de crecimiento y aprendizaje constante.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Ingeniero/a de Datos / AI
  • Devups
Python Agile MySQL PostgreSQL
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Apply directly on the original site at Get on Board.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2100 Tiempo completo
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

© getonbrd.com.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista / Desarrollador ETL Powercenter
  • coderslab.io
  • Santiago (Hybrid)
SQL ETL Power Center Resolución de problemas

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Analista / Desarrollador ETL PowerCenter para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Exclusive to Get on Board.

Job functions

  • Realizar el análisis, diseño y desarrollo de procesos ETL utilizando PowerCenter.
  • Participar en el relevamiento de requerimientos técnicos y funcionales.
  • Colaborar con equipos multidisciplinarios para garantizar la correcta implementación de soluciones.
  • Ejecutar pruebas y validaciones para asegurar la calidad de los desarrollos.
  • Documentar procesos, flujos y procedimientos técnicos asociados a las soluciones implementadas.

Qualifications and requirements

🎯 Requisitos

  • Mínimo 3 años de experiencia comprobable en desarrollo con PowerCenter.
  • Sólidas habilidades en análisis funcional y técnico.
  • Dominio de SQL para consultas y optimización de procesos.
  • Conocimientos deseables en Control-M para automatización y scheduling de tareas.
  • Capacidad para desenvolverse en entornos de alta demanda y cambios constantes.

🧠 Habilidades blandas valoradas

  • Alta capacidad de análisis y resolución de problemas.
  • Trabajo en equipo y colaboración efectiva con otras áreas.
  • Buena comunicación interpersonal.
  • Manejo de la presión y actitud resiliente frente a desafíos.

Conditions

Hibrido en Santiago de Chile.
Renta en pesos Chilenos

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer with Snowflake Expertise
  • Moventi
Python Agile SQL Business Intelligence
At Moventi, we focus on helping organizations lead with innovation through technology. Our team consists of a multidisciplinary group of talents working together to adopt new technologies, methodologies, and collaborative work styles that enhance professional growth and project impact. The office is centrally located, equipped with parking, recreational areas for break times, and agile meeting spaces to foster teamwork across different professional profiles. Our organizational culture emphasizes transparency, strong coordination, commitment, willingness to take risks, and daily innovation with original ideas that generate positive impact.

Apply without intermediaries from Get on Board.

Job Responsibilities and Core Functions

We are looking for a Data Engineer skilled in Snowflake, Airflow, Python, SQL, and Tableau who will play a key role in designing, developing, and maintaining efficient data pipelines and workflows. The primary goal is to enable reliable data processing and visualization to support business intelligence efforts.
  • Design, implement, and optimize data pipelines using Airflow and Python for automated and scalable data processing.
  • Develop and maintain Snowflake data warehouses ensuring data integrity, performance, and security.
  • Create SQL queries and scripts for data preparation, transformation, and loading processes.
  • Build and maintain interactive, insightful dashboards and reports in Tableau to provide actionable insights to stakeholders.
  • Collaborate cross-functionally with data analysts, business users, and other engineering teams to understand data needs and translate them into technical solutions.
  • Troubleshoot, monitor, and optimize existing data workflows and dashboards to improve performance and reliability.

Required Skills and Experience

The ideal candidate will have proven hands-on experience working in data engineering roles, particularly with Snowflake as the data warehousing solution. Strong proficiency in Python and Airflow is essential for orchestrating data workflows. Advanced SQL skills are critical for querying and managing complex datasets. Experience in building Tableau dashboards to enable data visualization and reporting is necessary to communicate insights effectively.
Beyond technical expertise, candidates should be proactive, detail-oriented, and have strong problem-solving capabilities. Excellent communication skills and the ability to work collaboratively in a team environment are vital to succeed in this role. We value professionals who embrace transparency and are committed to innovation and continuous learning.

Desirable Skills and Traits

Experience with cloud environments and other data orchestration tools will be advantageous. Familiarity with additional BI tools or programming languages can enhance your profile. Prior experience in agile methodologies and working in multidisciplinary teams will help you excel and adapt quickly within Moventi’s culture.

Benefits and Work Environment

We are dedicated to the professional development of our team members by offering challenging projects and continuous learning opportunities. From your first day, you will have formal employment as a contractor and can enjoy a birthday free day to celebrate your special moment.
  • Opportunities for ongoing professional growth and learning
  • Formal employment contract starting day one as a contractor
  • Birthday free day to celebrate you
  • Engagement in challenging and impactful projects

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Technical Business Analyst
  • Nisum Latam
Agile SQL Business Intelligence Scrum

Nisum is a leading global digital commerce firm headquartered in California, with services spanning digital strategy and transformation, insights and analytics, blockchain, business agility, and custom software development. Founded in 2000 with the customer-centric motto “ Building Success Together® ,” Nisum has grown to over 1,800 professionals across the United States, Chile, Colombia, India, Pakistan and Canada.


Nisum is an Equal Opportunity Employer and we are proud of our ongoing efforts to foster diversity and inclusion in the workplace.

Find this vacancy on Get on Board.

What You’ll Do

  • Understand and define complex business needs and translate them into technical requirements.
  • Act as a liaison between business stakeholders and technical teams to ensure clear understanding and delivery of solutions.
  • Drive continuous process improvements across projects and teams.
  • Define, document, and manage functional requirements, user stories, use cases, business cases, and BRDs. Engage stakeholders through effective communication, elicitation of requirements, and impactful presentations.

Qualifications and requirements

  • You must reside in Chile or Colombia
  • Advanced english skills
  • 4+ years of relevant experience
  • Strong experience with Tableau, Power BI, and SQL.
  • Understanding of how a Scrum team operates, including the creation and management of user stories and Business Requirements Documents (BRDs).
  • Ability to define and understand business needs clearly and translate them into functional requirements.

Critical Skills

  • Analytical Thinking: Business process modeling, root cause analysis
  • Communication: Stakeholder engagement, requirements elicitation, presentation skills
  • Documentation: Business cases, user stories, use cases, BRDs
  • Problem Solving : Gap analysis, SWOT analysis, decision modeling
  • Domain Knowledge: Strong understanding of industry standards, business operations, and best practices
  • Tools: MS Excel, Visio, JIRA, Confluence, BPM tools, Tableau/Power BI (for data insights)

What can we offer you?

  • Belong to an international and multicultural company that supports diversity.
  • Be part of international projects with a presence in North America, Pakistan, India and Latam.
  • Work environment with extensive experience in remote and distributed work, using agile methodologies.
  • Culture of constant learning and development in current technologies.
  • Pleasant and collaborative environment, with a focus on teamwork.
  • Access to learning platforms, Google Cloud certifications, Databricks, Tech Talks, etc.
  • Being part of various initiatives and continuous participation in internal and external activities of innovation, hackathon, technology, agility, talks, webinars, well-being and culture with the possibility not only to participate but also to be an exhibitor.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2500 Tiempo completo
Analista Senior BI
  • BC Tecnología
  • Santiago (Hybrid)
Analytics Excel SQL Business Intelligence
BC Tecnología es una consultora de Servicios IT con más de seis años de experiencia ofreciendo soluciones tecnológicas adaptadas a las necesidades específicas de sus clientes, que incluyen sectores como servicios financieros, seguros, retail y gobierno. Nos especializamos en la formación de equipos ágiles para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Además, administramos portafolios de proyectos, realizamos outsourcing y llevamos a cabo selección de profesionales especializados, siempre con un enfoque claro en el cliente, metodologías ágiles y el desarrollo continuo de productos de alta calidad.

Apply at getonbrd.com without intermediaries.

Responsabilidades principales

  • Diseñar, desarrollar y mantener dashboards e informes utilizando Power BI para respaldar decisiones estratégicas de negocio.
  • Realizar análisis de datos orientados a identificar oportunidades de mejora y resolver problemáticas comerciales, apoyando diferentes áreas de la organización.
  • Colaborar estrechamente con varias unidades de negocio para recopilar requerimientos y proponer soluciones analíticas basadas en datos.
  • Fomentar la adopción y uso eficiente de herramientas analíticas, promoviendo la alfabetización digital dentro de la empresa.
  • Implementar buenas prácticas en el modelamiento de datos, diseño visual de informes y validación de fuentes confiables para garantizar la precisión de la información.
  • Participar activamente en iniciativas de automatización y mejora continua de reportes para optimizar procesos y reducir tiempos.

Requisitos

Buscamos un Analista Senior BI con dominio avanzado en Power BI, especialmente en DAX, modelamiento de datos y visualización efectiva de información. Es fundamental tener conocimientos sólidos en SQL para extracción y manipulación eficiente de datos, así como habilidades avanzadas en Excel para el análisis complementario. Se valorará experiencia adicional con herramientas de visualización como Tableau, que aporte diversidad en la presentación de datos, y conocimientos en plataformas en la nube tales como Google BigQuery o AWS Redshift, que ayuden a gestionar grandes volúmenes de información.
Además, el candidato debe contar con fuertes habilidades de comunicación para interactuar efectivamente con clientes internos y equipos multifuncionales, tener orientación al cliente para entender sus necesidades y una mentalidad analítica que permita transformar datos en insights estratégicos. La capacidad para trabajar en entornos colaborativos, con metodologías ágiles y una proactividad constante será clave para el éxito en este rol.

Conocimientos deseables

Serán altamente valorados conocimientos y experiencia previa en Tableau, que permita complementar y diversificar las soluciones de visualización de datos. Asimismo, el manejo de plataformas de datos en la nube como Google BigQuery o AWS Redshift es deseable para facilitar el procesamiento y análisis de grandes volúmenes de datos desde infraestructuras modernas y escalables. Estas habilidades aportarán mayor flexibilidad y profundidad a las soluciones de inteligencia de negocios en la organización.

Beneficios

Ofrecemos un contrato inicial para un proyecto de dos meses, con posibilidad de extensión dependiendo del desempeño y las necesidades del proyecto. La modalidad de trabajo es híbrida, combinando la flexibilidad del trabajo remoto con la colaboración presencial. Promovemos un ambiente de aprendizaje continuo apoyado en metodologías ágiles y un equipo diverso enfocado en la calidad y los resultados. Este proyecto es ideal para quienes disfrutan enfrentar retos tecnológicos en ambientes dinámicos y críticos, donde el impacto de su trabajo es tangible.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2500 Tiempo completo
Data Engineer Semisenior / Senior
  • Lisit
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software enfocados en proporcionar herramientas de automatización y optimización que impulsan la eficiencia operativa de sus clientes. Trabajamos con un enfoque constante en la innovación y la pasión por superar desafíos tecnológicos. Nuestra propuesta diferencial radica en un acompañamiento consultivo integral, utilizando diversas herramientas y prácticas tecnológicas que permiten a los clientes alcanzar con éxito sus objetivos de transformación digital.

Opportunity published on Get on Board.

Responsabilidades y Objetivos del Puesto

Como Data Engineer en Lisit, serás responsable de diseñar, construir y mantener pipelines de datos robustos que faciliten la integración entre múltiples sistemas, asegurando un modelado de datos eficiente y alineado con los requerimientos del negocio. Te encargarás de implementar soluciones escalables utilizando herramientas de Infraestructura como Código (IaC) y gestionar el versionamiento del código para garantizar calidad y trazabilidad.

Participarás activamente en la implementación y optimización de soluciones cloud sobre plataformas como Google Cloud Platform (GCP) y Azure, utilizando productos específicos como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions. La elaboración y mantenimiento de procesos ETL/ELT serán clave para asegurar el flujo y la calidad de los datos.

Trabajarás colaborativamente con equipos multidisciplinarios, manteniendo una comunicación fluida y contribuyendo a la innovación continua en los proyectos, siempre con foco en la entrega de valor y el cumplimiento de los objetivos tecnológicos y de negocio.

Requisitos y Habilidades Exigidas

  • Mínimo 3 años de experiencia profesional en manejo y procesamiento de datos, enfocándose en la generación de pipelines, integración de sistemas y modelado de datos.
  • Dominio intermedio a avanzado en lenguajes de programación como Python y Spark, con capacidad para desarrollar y optimizar scripts y procesos complejos.
  • Sólidos conocimientos intermedios a avanzados en Infraestructura como Código (IaC), especialmente usando Terraform.
  • Amplia experiencia con sistemas de versionamiento de código, preferentemente GitHub y GitLab, garantizando buenas prácticas de control y colaboración.
  • Conocimiento avanzado en SQL y bases de datos relacionales y no relacionales, capaces de diseñar consultas complejas y optimizar el rendimiento.
  • Familiaridad intermedia a avanzada con plataformas cloud como Google Cloud Platform y Microsoft Azure, así como con herramientas específicas como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions.
  • Experiencia avanzada con herramientas ETL/ELT, destacándose el uso de Azure Data Factory, siendo este un requisito excluyente.
  • DESEABLE: Certificaciones relevantes en Data Engineering valoradas positivamente, incluyendo Microsoft Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader y Google Cloud Associate Cloud Engineer.
  • DESEABLE: Conocimientos deseables en Microsoft Power BI y Microsoft Fabric para complementar la visualización y análisis de datos.

Además, buscamos profesionales con capacidad analítica, buenas habilidades comunicativas, actitud proactiva y capacidad para trabajar en equipo, orientados a la mejora continua y la entrega eficiente y efectiva de soluciones.

Conocimientos y Certificaciones Deseables

Valoraremos positivamente candidatos que posean certificaciones oficiales en ingeniería de datos como Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader, o Google Cloud Associate Cloud Engineer que demuestren compromiso con la actualización continua. También será un plus contar con conocimientos en Microsoft Power BI y Microsoft Fabric, herramientas que aportan valor agregado para el manejo y visualización avanzada de datos, y que complementan el enfoque técnico del puesto.

Beneficios y Ambiente Laboral

Ofrecemos la oportunidad de integrarte a proyectos tecnológicos desafiantes y de largo plazo, trabajando dentro de un equipo técnico altamente colaborativo que promueve un ambiente profesional y amigable. Nuestro entorno está pensado para facilitar la comunicación constante y el compromiso del equipo, con un estilo de trabajo 100% remoto que favorece la conciliación entre la vida personal y profesional.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Lisit provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer GCP
  • Factor IT
Python Data Analysis SQL NoSQL

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Apply without intermediaries from Get on Board.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de Datos para Asistente Conversacional IA
  • Lisit
Python PostgreSQL SQL MongoDB
Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software que brindan herramientas de automatización y optimización para sus clientes, manteniendo un fuerte enfoque en la innovación y la pasión por resolver desafíos tecnológicos complejos. Buscamos incorporar talento para trabajar en un proyecto puntero que consiste en el desarrollo de un asistente conversacional inteligente basado en inteligencia artificial.
El proyecto se centra en la construcción de un sistema capaz de procesar lenguaje natural (NLP) utilizando datos de diversas fuentes, para lo cual se requiere una infraestructura de datos sólida, escalable y fiable que permita alimentar los modelos inteligentes de lenguaje y mejorar continuamente la interacción conversacional, aportando valor a nuestros clientes mediante soluciones eficientes y tecnológicamente avanzadas.

Applications at getonbrd.com.

Descripción del rol y responsabilidades

Como Ingeniero/a de Datos en este proyecto, serás responsable de diseñar, construir y mantener pipelines ETL/ELT que permitan la ingesta y procesamiento eficiente de datos diversos y no estructurados, como chats, correos electrónicos y logs, transformándolos en formatos precisos y útiles para el entrenamiento y operación de modelos de procesamiento de lenguaje natural (NLP).
Asimismo, integrarás fuentes de datos externas a través de APIs RESTful, gestionarás bases de datos relacionales como PostgreSQL y NoSQL como MongoDB, y optimizarás el almacenamiento de grandes volúmenes de datos en soluciones cloud como S3, BigQuery o Redshift. También garantizarás la calidad, trazabilidad y gobernanza de los datos para mantener la confiabilidad del sistema.
El rol incluye implementar medidas de anonimización y protección para los datos sensibles, asegurando el cumplimiento de normativas vigentes en materia de privacidad y manejo ético de la información, y colaborarás con el equipo multidisciplinario para cumplir con los objetivos tecnológicos y de negocio del proyecto.

Requisitos y habilidades esenciales

Buscamos un profesional con experiencia sólida en Python, utilizando librerías especializadas como Pandas, PySpark o Dask para el procesamiento y transformación de datos a gran escala. Es necesario tener un dominio avanzado en SQL y experiencia práctica con bases de datos relacionales y NoSQL, especialmente PostgreSQL y MongoDB.
Se requiere conocimiento comprobable en herramientas de orquestación de flujos de trabajo de datos, como Apache Airflow, y manejo de almacenamiento en la nube en plataformas como Azure, AWS S3 o Google Cloud Storage (GCS).
Es fundamental contar con experiencia en el procesamiento de datos no estructurados aplicados a modelos de NLP y manejo adecuado de APIs RESTful para la integración de diferentes fuentes y servicios.
Además de las habilidades técnicas, valoramos competencias orientadas a la gestión minuciosa de la calidad y gobernanza de datos, capacidad analítica y pensamiento crítico para mantener estándares rigurosos que garanticen la efectividad del asistente conversacional inteligente.

Conocimientos y experiencia deseables

Se valorará experiencia previa en proyectos relacionados con asistentes virtuales o tecnologías de procesamiento de lenguaje natural (NLP), así como familiaridad con prácticas DataOps para la gestión eficiente de pipelines y control de versiones de datos.
El conocimiento de normativas internacionales de privacidad y protección de datos, como GDPR e HIPAA, junto con técnicas avanzadas de anonimización, será un plus muy importante para desempeñarse con éxito en el cargo.

Beneficios y ambiente laboral

Ofrecemos la oportunidad de participar en proyectos tecnológicos desafiantes y de largo plazo dentro de un equipo técnico colaborativo, en un ambiente laboral amigable y profesional.

El trabajo es 100% remoto, lo cual fomenta la conciliación entre la vida personal y profesional sin perder la comunicación fluida y el compromiso con el equipo.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Data Engineer
  • Playbypoint
Python SQL Machine Learning Kafka
🏓 Senior Data Engineer
📍 Remote | Full-time
Join us in building the future of racquet sports.

🧠 About the Team & Project
At Playbypoint, we're on a mission to transform the racquet sports industry with powerful, intuitive software. From tennis to pickleball, our platform helps clubs thrive by elevating player engagement and simplifying operations. As part of our Data & Insights team, you’ll work alongside backend engineers, product leaders, and business stakeholders to turn raw data into actionable insights that shape our product strategy and operational decisions.
Our team plays a critical role in helping the company scale. We believe that better data leads to better decisions—and we're building the infrastructure to make that possible.

Exclusive to Get on Board.

🔧 What You’ll Do

As a Senior Data Engineer, you'll design, develop, and maintain scalable data pipelines to support our real-time and batch analytics needs. You’ll take ownership of how data flows through our system, ensuring it’s clean, accessible, and reliable for use across engineering, product, and business teams.
You’ll:
  • Build and optimize data pipelines using Kafka, Airflow, and cloud-native tools.
  • Manage data lakes and warehouses using Apache Iceberg, Amazon S3, and ClickHouse or Snowflake.
  • Ensure data integrity and quality across all stages of our pipeline.
  • Collaborate closely with analysts and engineers to support key business metrics and machine learning workflows.
  • Contribute to internal tooling that improves data observability and developer experience.
Your success will be measured by the reliability, scalability, and performance of the data infrastructure you build—as well as your ability to empower others with trusted data.

✅ What We’re Looking For

We’re looking for someone who thrives in a fast-paced startup environment and is passionate about building systems that scale.
Required:
  • 5+ years of experience in Data Engineering
  • Strong experience with streaming technologies like Kafka
  • Proficiency in Python and SQL
  • Solid experience with workflow orchestration tools (e.g., Airflow)
  • Familiarity with OLAP databases such as Snowflake, Clickhouse, or Redshift
  • Experience managing data workflows in a cloud environment (preferably AWS)

Desirable skills

Nice to Have:
  • Experience with ClickHouse
  • Certifications in AWS, Snowflake, or similar platforms
  • Hands-on knowledge of DataOps or ML Ops at scale
  • Experience with LLMs &/or Agents building
  • Familiarity with data versioning and formats like Parquet, Iceberg, or Delta Lake

🌍 Why Playbypoint?

We're not just building tools—we're building a movement to connect people through the joy of sports. You’ll join a collaborative, ambitious team where your work directly impacts thousands of players and clubs across the world. Plus, we’re remote-first and flexible, so you can work from wherever you do your best thinking.
🎯 Ready to serve up your next challenge?
Apply now and help shape the future of racquet sports.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Company retreats Team-building activities outside the premises.
Computer provided Playbypoint provides a computer for your work.
Conference stipend Playbypoint covers tickets and/or some expenses for conferences related to the position.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Consultor/a de Datos en Azure – Power BI & Databricks
  • Factor IT
SQL Oracle Big Data Azure

En FactorIT, somos líderes en tecnología y soluciones de datos, trabajando con grandes empresas en sus procesos de transformación digital. Buscamos un/a Consultor/a de Datos que apoye a nuestras iniciativas de explotación de datos en una institución bancaria clave mientras implementamos soluciones innovadoras en Azure.

Nuestro objetivo es brindar a nuestros clientes servicios de analítica avanzada y transformación digital. Aquí, tendrás la oportunidad de participar en grandes proyectos que marcan la diferencia y promueven el uso estratégico de la información.

Applications at getonbrd.com.

Descripción del Rol

Estamos buscando a un/a Consultor/a de Datos en Azure, quien será fundamental en nuestra misión de optimizar el uso de datos dentro de la banca. Las responsabilidades incluyen:

  • Identificar oportunidades de explotación de datos junto a las áreas de negocio.
  • Desarrollar pipelines y modelos en Azure Databricks.
  • Diseñar y construir dashboards y reportes interactivos en Power BI.
  • Realizar talleres con usuarios del negocio para levantar requerimientos.
  • Acompañar a las áreas funcionales en la adopción de una cultura data-driven.
  • Traducir necesidades del negocio en soluciones técnicas sostenibles.
  • Documentar soluciones y reportes desarrollados.

Requisitos del Puesto

Solicitamos a un/a profesional con experiencia técnica en las siguientes áreas:

  • Experiencia comprobable en Azure Databricks (PySpark / Spark SQL).
  • Conocimiento avanzado en Power BI, cualquier experiencia en DAX, modelado y visualización es un plus.
  • Familiaridad con servicios de datos de Azure como Data Lake, Synapse y Data Factory.
  • Competencia en SQL, preferiblemente en Oracle y/o Azure SQL.

Además, el candidato ideal debe poseer excelentes habilidades comunicativas, siendo capaz de interactuar con usuarios no técnicos y traducir sus necesidades. Buscamos a una persona empática, colaborativa y proactiva que impulse la adopción de soluciones en un entorno de rápida transformación tecnológica.

Habilidades Adicionales Preferidas

Además de los requisitos mencionados, se valorará la experiencia previa en:

  • Proyectos de transformación digital o migraciones tecnológicas.
  • Sector bancario, seguros o industrias reguladas.

El dominio del español es excluyente, mientras que el inglés técnico para lectura y escritura es deseable.

Beneficios y Oportunidades

Ofrecemos un entorno laboral flexible, permitiendo equilibrar trabajo en oficina y remoto, adaptándonos a tus necesidades. Además de un salario competitivo basado en tu experiencia, contamos con:

  • Flexibilidad laboral y modalidad de trabajo remoto.
  • Capacitación continua en tecnologías emergentes enfocadas en inteligencia artificial y automatización.
  • Cultura inclusiva que fomenta la creatividad y la innovación.

Si te apasiona la tecnología y quieres unirte a un equipo innovador en expansión, ¡esta es tu oportunidad!

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Junior Data Analyst & Automation
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Banco Santander Chile es una organización internacional líder en el sector financiero con presencia en más de 20 países, reconocida por su compromiso con el desarrollo profesional, el aprendizaje continuo y la movilidad interna. La Vicepresidencia de Tecnología y Operaciones del banco es un área estratégica que impulsa la innovación tecnológica, la optimización y mejora de procesos con el objetivo de contribuir al progreso de las personas y empresas. Este departamento está enfocado en liderar iniciativas tecnológicas de vanguardia que fortalecen la posición de Santander como líder en el sector financiero chileno y a nivel internacional, promoviendo un ambiente de trabajo colaborativo, desafío constante y crecimiento profesional.

Apply directly on the original site at Get on Board.

Misión del cargo

Buscamos jóvenes profesionales comprometidos y flexibles para integrarse al equipo de Tecnología y Operaciones, donde contribuirán a la optimización y mejora continua de procesos mediante el uso de tecnologías punteras.

El rol implica colaborar en proyectos estratégicos que impulsen la innovación tecnológica dentro del banco, trabajando estrechamente con diferentes áreas para apoyar la transformación digital y la eficiencia operativa.

Además, se espera que el candidato participe activamente en el aprendizaje permanente y el desarrollo de competencias técnicas y colaborativas, favoreciendo un ambiente dinámico y orientado al trabajo en equipo.

Qué te ayudará a tener éxito en el proceso

  • Para tener éxito en esta posición, buscamos egresados de carreras como Ingeniería Civil Industrial, Ingeniería Civil en Informática o afines, con no más de un año de experiencia profesional, ya que aspiramos a formar jóvenes talentos que aporten con nuevas ideas y ganas de aprender.
  • Debe contar con formación o experiencia en automatización de procesos, analítica avanzada y manejo de datos, con conocimientos intermedios en SQL, Power BI y/o Tableau. Se valoran conocimientos deseables en Python, Spark y Appian, orientados a potenciar habilidades técnicas y tecnológicas en análisis de datos.
  • El candidato debe tener un nivel intermedio de inglés (B1), mostrando capacidad para manejar información en este idioma y comunicarse de forma básica en el contexto laboral.
  • Buscamos personas con interés genuino en las herramientas tecnológicas de análisis de datos, motivadas a contribuir en un entorno desafiante y colaborativo, con habilidades blandas como adaptabilidad, actitud proactiva y capacidad de trabajo en equipo.
  • Se requiere disponibilidad para incorporarse en junio de 2025.

Conocimientos y habilidades deseables

  • Nos interesa especialmente candidatos que hayan desarrollado conocimientos en programación avanzada, analítica de datos con Python y Spark, así como familiaridad con plataformas de automatización como Appian.
  • Valoramos la capacidad para desenvolverse en entornos multidisciplinarios, con habilidades comunicativas y de gestión del tiempo, que contribuyan a un equipo colaborativo y efectivo.
  • Además, la experiencia en proyectos relacionados con la transformación digital y optimización de procesos se considera un plus importante, aunque no es requisito excluyente.

¿Qué te ofrecemos?

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna para participar en proyectos estratégicos.
  • Acompañamiento formativo durante el proceso de adaptación y desarrollo del rol, asegurando una integración exitosa y crecimiento profesional.
  • Redes internas de colaboración que potencian el aprendizaje, la creación de vínculos profesionales y la expansión de la mirada laboral.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Analista de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
PostgreSQL Data Transformation ETL Power BI
Genesys Tecnologías de Inform. SpA es una empresa con más de 30 años de trayectoria en el mercado Latinoamericano, especializada en desarrollo de software y servicios TI para acompañar a las empresas en sus procesos de transformación digital. Con sedes en Concepción y Santiago, Genesys se especializa en ofrecer soluciones basadas en tecnologías de última generación como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos (RPA).
En esta oportunidad, el proyecto se enfoca en la definición e implementación de una arquitectura de datos moderna y eficiente que soporte la toma de decisiones, facilite la interoperabilidad entre sistemas y garantice la calidad y trazabilidad de la información. Se trata de un proyecto de transformación estratégica dentro de la compañía, donde el equipo técnico de alto nivel trabaja con tecnologías y buenas prácticas aplicadas en un entorno real y desafiante.

Originally published on getonbrd.com.

Responsabilidades Clave

  • Diseñar la arquitectura de datos del proyecto, abarcando esquemas lógicos y físicos, así como los flujos de datos necesarios para garantizar la integridad y escalabilidad.
  • Modelar y normalizar estructuras de datos relacionales optimizadas en PostgreSQL, asegurando eficiencia en almacenamiento y consulta.
  • Participar activamente en la recolección y análisis de los requerimientos de negocio, interpretándolos para desarrollar modelos de datos alineados con las necesidades analíticas y operativas.
  • Establecer procesos robustos de ingesta, limpieza, transformación y catalogación de datos, para soportar casos de uso presentes y futuros en la organización.
  • Colaborar con equipos multidisciplinarios en la definición e integración de mecanismos de transferencia de datos mediante APIs, servicios externos y diversas fuentes de datos.
  • Definir y aplicar estándares claros de calidad, gobernanza y seguridad de datos en conjunto con los roles técnicos relacionados.
  • Apoyar la construcción y validación de dashboards o reportes exploratorios cuando sea necesario para dar soporte a las áreas de negocio.
  • Documentar meticulosamente las estructuras de datos, procesos implementados y decisiones tomadas para asegurar la trazabilidad y reutilización futura de los modelos desarrollados.

Requisitos Técnicos y de Experiencia

Buscamos profesionales con experiencia comprobable como Analista de Datos, Data Engineer o roles afines, preferentemente que hayan participado en proyectos de arquitectura de datos o transformación digital organizacional.
El candidato ideal debe tener dominio avanzado en el diseño y modelamiento de bases de datos relacionales, con un énfasis particular en PostgreSQL, además de conocimientos en bases de datos no relacionales.
Es imprescindible el entendimiento profundo de arquitecturas de datos modernas, incluyendo Data Lakes, Data Warehouses o arquitecturas híbridas que se complementen entre sí para soportar cargas analíticas y operativas.
Se requiere experiencia demostrable en el diseño y ejecución de procesos ETL/ELT para la obtención, procesamiento y almacenamiento eficiente de grandes volúmenes de datos.
Se valorará positivamente el manejo de herramientas específicas de ETL/ELT, así como el conocimiento en plataformas de visualización de datos tales como Power BI, Metabase, Tableau o Looker, para la realización de pruebas exploratorias y validaciones de datos.
Además de las competencias técnicas, buscamos una persona con mentalidad analítica orientada a la comprensión profunda del negocio facilitada por el análisis de datos, con iniciativa, atención al detalle y un fuerte compromiso con la calidad y consistencia en la información. La capacidad para trabajar en entornos colaborativos y multidisciplinarios, así como para comunicar conceptos técnicos complejos en términos claros y estructurados, es fundamental. Se valorará la curiosidad y la apertura para el aprendizaje continuo, contribuyendo así al crecimiento profesional y al éxito del equipo.

Habilidades y Herramientas Deseables

Además de los requisitos técnicos principales, es deseable que el candidato posea experiencia con herramientas específicas de ETL/ELT que faciliten la automatización y optimización de los procesos de transformación de datos.
Se valorará el conocimiento en herramientas de visualización de datos reconocidas en el mercado, como Power BI, Tableau, Looker o Metabase, para la validación rápida y exploratoria de los datos procesados, permitiendo una mejor toma de decisiones basada en información confiable.
El manejo de técnicas y metodologías de gobernanza de datos, calidad y seguridad será un plus para asegurar la integridad y protección de la información en todos los procesos.
Finalmente, poseer habilidades comunicativas y colaborativas que faciliten la interacción entre áreas técnicas y de negocio será un diferencial para fortalecer el trabajo en equipo.

Se Ofrece

Ofrecemos un contrato a plazo fijo dentro de un ambiente laboral dinámico y colaborativo, que fomenta el crecimiento profesional y el aprendizaje constante. Nuestro horario laboral es de lunes a jueves de 08:30 a 18:30 hrs, y viernes de 08:30 a 17:30 hrs, bajo modalidad híbrida que combina trabajo presencial y remoto.
Formarás parte de una empresa con más de 30 años de experiencia en el sector tecnológico, con presencia en las ciudades de Concepción y Santiago. Valoramos el talento y promovemos el desarrollo de nuestros colaboradores en un entorno que impulsa la innovación y la excelencia técnica.
Únete a Genesys Tecnologías de Inform. SpA y sé parte de un equipo tecnológico comprometido con mantener los negocios en movimiento y elevar el estándar tecnológico de las empresas en Latinoamérica. ¡Te esperamos con entusiasmo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

© getonbrd.com.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Send CV through Get on Board.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Ingeniero de Datos/ Dbt
  • BC Tecnología
  • Santiago (Hybrid)
SQL Big Data BigQuery Google Cloud Platform

En BC Tecnología, somos una consultora de TI con más de seis años de experiencia, especializada en ofrecer soluciones personalizadas para nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nos enfocamos en consultoría, outsourcing, desarrollo de proyectos y formación de equipos, siempre con un claro compromiso hacia la satisfacción del cliente. Como parte de nuestro equipo, el ingeniero/a de datos jugará un papel clave en la creación de soluciones basadas en tecnologías de la nube, impulsando la innovación y la colaboración en un entorno de trabajo ágil.

Job opportunity published on getonbrd.com.

Responsabilidades Clave

El ingeniero/a de datos será responsable de:

  • Diseñar y mantener pipelines de datos utilizando BigQuery y DBT.
  • Implementar tareas programadas en Google Cloud Platform (GCP) para la ingesta y procesamiento continuo de datos.
  • Construir y documentar modelos de datos optimizados para su análisis.
  • Validar y realizar pruebas para garantizar la precisión de los datos transformados.
  • Realizar seguimiento y documentación de cambios en modelos y sus transformaciones.

Requisitos Técnicos

Buscamos un ingeniero/a de datos con:

  • Experiencia avanzada en BigQuery y DBT.
  • Conocimiento práctico en Google Cloud Platform, incluyendo la programación de tareas y almacenamiento.
  • Sólido manejo de SQL y experiencia en modelado de datos.
  • Capacidad para documentar procesos y realizar pruebas de calidad de datos de manera eficiente.

Lo que ofrecemos

Brindamos un contrato por proyecto de 12 meses en modalidad híbrida, lo que permite combinar trabajo remoto con visitas a la oficina 2 a 3 días a la semana. También garantizamos un enfoque en la inclusión, en cumplimiento con la Ley Nº 21.015, promoviendo un entorno donde todos los empleados puedan prosperar.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2600 Tiempo completo
Data Analytics Residente Uruguay
  • BC Tecnología
Python Analytics Data Analysis SQL
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

Originally published on getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
Python Agile SQL NoSQL
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

This company only accepts applications on Get on Board.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Analista de BI Latam
  • BC Tecnología
Python Analytics Data Analysis SQL

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

© getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Power BI Analyst Sr
  • Improving South America
Data Analysis SQL Big Data BigQuery
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Opportunity published on Get on Board.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

Official job site: Get on Board.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

Send CV through getonbrd.com.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1700 Tiempo completo
Analista de Datos
  • BC Tecnología
  • Buenos Aires (Hybrid)
Python Data Analysis SQL Business Intelligence
En BC Tecnología, somos una consultora especializada en servicios IT, trabajando con clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de BI & Analytics juega un papel crucial en la optimización de procesos y toma de decisiones informadas mediante la administración y análisis de datos. Buscamos un Analista de Datos que se una a nuestro equipo, aportando experiencia y conocimiento en herramientas clave.

This posting is original from the Get on Board platform.

Responsabilidades

Como Analista de Datos, serás el representante del equipo de BI & Analytics en Argentina. Tus responsabilidades incluirán:
  • Desarrollar y optimizar consultas SQL para la extracción y transformación de datos.
  • Implementar y gestionar pipelines de datos en Databricks.
  • Aplicar Python para el procesamiento y análisis avanzado de datos.
  • Servir como enlace entre el equipo de BI & Analytics y las áreas de negocio en el país, asegurando que las iniciativas de BI estén alineadas con las necesidades estratégicas de la empresa.
  • Asegurar la calidad y disponibilidad de los datos para la toma de decisiones.
  • Colaborar con equipos multidisciplinarios para definir y mejorar modelos analíticos.

Requisitos

  • Experiencia sólida en desarrollo BI con SQL avanzado.
  • Conocimiento y experiencia en Databricks (deseable).
  • Habilidad en Python para manipulación y análisis de datos.
  • Experiencia en entornos de análisis y procesamiento de datos en la nube (Azure, AWS, GCP es un plus).

Habilidades Deseables

Buscamos a alguien que no solo cumpla con los requisitos técnicos, sino que también posea habilidades interpersonales para colaborar efectivamente con equipos diversos y facilitar la comunicación entre departamentos. La adaptabilidad y una mentalidad centrada en soluciones son altamente valoradas en nuestra cultura de trabajo.

Beneficios

En BC Tecnología, te ofrecemos un entorno laboral dinámico y colaborativo, con un modelo de trabajo híbrido que idealiza la integración entre lo presencial y lo remoto. Además, tendrás acceso a oportunidades de capacitación continua, un ambiente que fomenta la innovación y centenares de oportunidades para crecer profesionalmente al lado de expertos. Valoramos a nuestros colaboradores y buscamos su desarrollo constante.

Health coverage BC Tecnología pays or copays health insurance for employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Microsoft Power BI Developer
  • Improving South America
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Job opportunity published on getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2800 Tiempo completo
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

© Get on Board.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3100 - 4500 Tiempo completo
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics Data Analysis SQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

Applications at getonbrd.com.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1000 - 1600 Tiempo completo
Analista Funcional Senior
  • TCIT
  • Santiago (In-office)
Agile SQL UML Scrum

En TCIT, somos líderes en el desarrollo de software en modalidad Cloud, con la misión de transformar digitalmente organizaciones a través de soluciones sostenibles e innovadoras. Nuestro equipo está compuesto por profesionales apasionados y enfocados en generar un impacto positivo. Hemos trabajado en proyectos variados, desde sistemas de gestión agrícola hasta soluciones específicas para la industria judicial. Actualmente colaboramos con importantes partners tecnológicos en ambiciosos proyectos en países como Canadá.

Apply exclusively at getonbrd.com.

Funciones del cargo

● Entender, establecer y formalizar los requerimientos del cliente.
● Modelar, clasificar, priorizar y validar los requerimientos del cliente.
● Analizar, especificar y verificar los requerimientos del cliente y/o usuarios.
● Definir las pruebas que se utilizarán para comprobar el cumplimiento de los
requerimientos en los entregables.
● Asegurar la alineación de entregables con las expectativas del cliente y el alcance
del proyecto.
● Identificar y analizar riesgos potenciales y toma de acciones preventivas.
● Detectar, en la medida de lo posible, eventuales omisiones en el pedido de usuario.
● Validar y obtener la aprobación de las definiciones del usuario comprometiendo a
los usuarios involucrados.
● Generar y ejecutar los casos de prueba funcionales en función de las características
del proyecto y del equipo del mismo.

Requerimientos del cargo

● Poseer título profesional del Área Informática de al menos 8 semestres de duración. (Requerido).
● Experiencia y dominio en estándares y metodologías para levantamiento y análisis de requerimientos funcionales y no funcionales. (Requerido).
● Manejo de herramientas de modelado de datos. (Requerido).
● Experiencia en seguimiento y gestión de proyectos informáticos. (Requerido).
● Manejo de herramientas de gestión de proyectos (como Jira, Asana o similares). (Requerido).
● Conocimiento y experiencia en metodologías de desarrollo de sistemas (ágiles, no ágiles). Conocimiento de Scrum/UML. (Requerido).
● Conocimientos de lenguajes de consulta de Base de Datos. (Requerido).
● Alto Conocimiento Base de datos relacional SQL Server. (Requerido).
● Experiencia en generación de casos de pruebas, y/o ejecución de pruebas funcionales. (Requerido).

Deseables

● Experiencia en proyectos TI en el rubro de fomento productivo sector público o sector privado, particularmente instituciones ligadas o dependientes del Ministerio de Economía, Fomento y Turismo. (Deseable).
● Manejo y experiencia en herramientas Microsoft SQL Management Studio y/o PostgreSQL (Deseable).
● Manejo de herramienta de pruebas Postman. (Deseable).
● Manejo y experiencia en manejadores de diseño como ARIS, Visio, Bizagi. Deseable).

Condiciones

En TCIT, garantizamos un ambiente laboral enriquecedor con:

  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉

¡Esperamos que te unas a la revolución digital de TCIT y a nuestra apasionada comunidad!

Computer provided TCIT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Consultor de Estrategia en Microstrategy
  • BC Tecnología
  • Santiago (Hybrid)
Data Analysis SQL Business Intelligence Virtualization

En BC Tecnología somos una consultora de servicios IT con más de 6 años de experiencia en la formación de equipos y desarrollo de proyectos para sectores como servicios financieros, seguros, retail y gobierno. Nuestra propuesta se centra en soluciones tecnológicas personalizadas, el outsourcing de personal especializado y la gestión ágil de áreas de infraestructura, desarrollo y unidades de negocio. Participarás en proyectos orientados al diseño de soluciones y desarrollo de software, trabajando para clientes de alto nivel en un entorno que promueve la innovación y el cambio organizacional.

Find this vacancy on Get on Board.

Responsabilidades Principales

  • Diseñar y desarrollar informes en MicroStrategy versiones 2020 y 2021.
  • Administrar entornos MicroStrategy utilizando la herramienta Developer para tareas de mantenimiento, configuración y administración.
  • Ejecutar consultas SQL para la extracción y análisis de datos.
  • Conectar y trabajar con entornos de datos alojados en AWS Redshift.
  • Modelar objetos de esquema mediante Architect.
  • Administrar y desarrollar cubos OLAP en MicroStrategy.
  • Utilizar la herramienta Workstation para la gestión de proyectos y recursos.
  • Diseñar y distribuir contenidos analíticos a través de la Biblioteca MSTR.

Requisitos Técnicos

Buscamos un profesional con experiencia comprobable en entornos de inteligencia de negocios, especializado en MicroStrategy y SQL avanzado. Debe contar con experiencia en manejo de plataformas cloud, especialmente AWS Redshift. La persona ideal posee habilidades para desarrollar, administrar y optimizar soluciones analíticas complejas, desde la creación de informes y modelamiento de datos hasta la explotación de herramientas analíticas avanzadas.

Consideramos fundamental el manejo de las diferentes versiones de MicroStrategy (2020 y 2021), así como la capacidad para administrar esquemas y cubos OLAP. Además, debe ser capaz de trabajar en equipo, mostrar proactividad ante problemas técnicos y tener una visión estratégica para la mejora continua de los procesos analíticos.

Conocimientos Deseables / Complementarios

  • Desarrollo de soluciones analíticas en MicroStrategy Mobile.
  • Implementación de flujos transaccionales mediante MicroStrategy Transactions.
  • Creación de visualizaciones y paneles avanzados en FreeForm.
  • Uso de Visual Insights para análisis interactivo de datos.
  • Certificación o experiencia práctica con funcionalidades avanzadas de MicroStrategy.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1800 Tiempo completo
Supervisor de Servicios Tecnológicos
  • S3 Chile
  • Santiago (In-office)
Agile SQL Scrum Planning

S3 Chile es una empresa líder en el ámbito de Outsourcing, especializada en la gestión y optimización de Procesos de Negocios para sus clientes. Nuestro enfoque está en proveer soluciones tecnológicas y de servicios TI que potencien la operación de nuestros clientes a través de equipos altamente competentes y comprometidos.

En este contexto, nuestro proyecto se centra en la supervisión integral de los servicios tecnológicos, coordinando equipos de desarrollo, aseguramiento de calidad (QA) y operaciones IT que trabajan bajo una modalidad híbrida. Buscamos fortalecer la calidad y eficiencia en la entrega de servicios tecnológicos mediante una gestión efectiva y alineada con objetivos estratégicos comerciales.

Apply directly on the original site at Get on Board.

Responsabilidades

Como Supervisor de Servicios Tecnológicos, serás responsable de supervisar, coordinar y garantizar la correcta ejecución de los servicios TI proporcionados por empresas externas. Liderarás equipos multidisciplinarios compuestos por desarrolladores, profesionales de QA y operaciones tecnológicas, asegurando que se cumplan los estándares de calidad y plazos establecidos.

Tus funciones incluirán la planificación y gestión de proyectos tecnológicos mediante herramientas como Jira, Trello o MS Project, el seguimiento de tareas y entrega de reportes de avance a la alta dirección. También trabajarás en la implementación y mejora continua de procesos basados en metodologías tanto tradicionales como ágiles.

Deberás organizar y motivar al equipo, resolver bloqueos operativos y facilitar la comunicación entre áreas para alcanzar los objetivos definidos, garantizando una integración fluida entre S3 Chile y las empresas proveedoras de servicios.

Requisitos y habilidades

Buscamos profesionales con formación en Ingeniería Comercial, Ingeniería Civil Industrial o Administración de Empresas que demuestren un sólido entendimiento de la gestión tecnológica y de proyectos.

Es indispensable contar con experiencia mínima de 2 años en áreas relacionadas con tecnología, preferentemente supervisando equipos y gestionando proyectos tecnológicos.

Deberás tener conocimiento práctico en SQL para comprender y supervisar procesos de datos, así como dominio de herramientas de gestión de proyectos como Jira, Trello o MS Project que permitan un adecuado seguimiento y control.

Se valora un buen manejo de metodologías híbridas, tanto tradicionales (PMI, Waterfall) como ágiles (Scrum, Kanban), para adaptar los procesos a las necesidades del equipo y los proyectos.

Además, se requieren habilidades desarrolladas en organización, planificación y gestión de equipos, liderazgo efectivo, comunicación asertiva y orientación a resultados para fomentar un ambiente colaborativo y productivo.

Competencias y conocimientos deseables

Serán valoradas habilidades adicionales como el conocimiento avanzado en herramientas de análisis de datos, experiencia previa en coordinación de equipos distribuidos y certificaciones relacionadas con gestión de proyectos (PMP, Scrum Master).

También es deseable la capacidad para gestionar el cambio y resolución de conflictos, para optimizar la interacción entre los distintos actores involucrados en el servicio tecnológico.

Conocimientos en tecnologías específicas de desarrollo software, plataformas de automatización y monitoreo serán un plus para enriquecer las soluciones supervisadas.

Beneficios

En S3 Chile ofrecemos una renta base competitiva acorde al mercado, asegurando condiciones atractivas para nuestros colaboradores.

Proporcionamos oportunidades reales de desarrollo profesional y crecimiento dentro de la empresa, fomentando un entorno de aprendizaje continuo en línea con las nuevas tecnologías.

Destacamos un paquete de beneficios corporativos y un equipo comprometido que promueve un ambiente colaborativo y estimulante.

Health coverage S3 Chile pays or copays health insurance for employees.
Computer provided S3 Chile provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Product Owner
  • ICONSTRUYE
  • Bogotá (Hybrid)
Agile Excel SQL DevOps

En iConstruye, nos posicionamos como la empresa líder en soluciones y servicios tecnológicos innovadores, trabajando con un enfoque en el suministro y la gestión de la construcción, así como en industrias con alta complejidad logística. Nuestro equipo está comprometido a diseñar e implementar soluciones efectivas y escalables, ayudando a nuestros clientes a alcanzar sus objetivos de manera eficiente y con éxito.

Tu misión: Responsable de la construcción del producto, generando valor al desarrollo y velando por la satisfacción de los clientes. Diseña, modela, construye, le da valor, entrega y mejora permanentemente los productos, basándose en las necesidades de nuestros clientes, conectándose con los objetivos de nuestra compañía y siendo partner de las demás áreas de la empresa.

© getonbrd.com. All rights reserved.

Tus funciones:

  • Participar en el proceso creativo del producto, colaborando con el PM y el CX para diseñar la experiencia de usuario y definir los requisitos comerciales, generando el backlog.
  • Diseñar épicas y redactar historias de usuario.
  • Liderar la célula de trabajo, supervisando el cumplimiento de los puntos de historia asignados.
  • Definir y asegurar el cumplimiento de las fechas de entrega de los productos.
  • Priorizar características a implementar que generen valor al desarrollo.
  • Resolver dudas del equipo con respecto al desarrollo, buscando información de los Stakeholders.
  • Ajustar características y prioridades en cada iteración del producto.
  • Garantizar la calidad del producto entregado.
  • Conocer y comprender los indicadores de éxito del cliente, como NPS y CSAT.

Requerimientos:

  • Experiencia comprobada en metodología Agile; se valora tener certificación de PO (no excluyente).
  • Conocimientos en Excel, tablas dinámicas e idealmente SQL.
  • Dominio de MS Office y Google Docs.
  • Experiencia en herramientas como Whimsical, Notion y plataformas similares a Azure DevOps.
  • Dominio del idioma inglés.
  • Experiencia demostrable en equipos Scrum, así como en la entrega de resultados a través de gráficos de Burn Down y productividad.
  • Experiencia en la industria de la construcción será considerada un plus.
  • Conocimientos sobre sistemas de medición de NPS y CSAT.

Deseable:

Si cuentas con experiencia en la industria de la construcción, sería un gran aporte para nuestro equipo. Además, el conocimiento en sistemas de medición de la satisfacción, como NPS y CSAT, enriquecería tu perfil y contribuiría significativamente al éxito en el rol.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Mambu Champion
  • TCIT
Agile REST API SQL Scrum

Una de nuestras misiones en TCIT es descubrir y potenciar a los mejores talentos, por lo que te invitamos a ser parte de nuestro team!

Nuestro propósito es transformar digitalmente a distintas organizaciones a través de soluciones de calidad, sostenibles e innovadoras. Trabajamos con metodologías ágiles, utilizamos tecnologías de última generación y somos expertos en desarrollo de software en tecnologías Cloud.

Algunos de nuestros desarrollos son un sistema de gestión agrícola, un sistema de remates en línea, un sistema de gestión de las causas para los tribunales judiciales, un sistema para monitoreo de certificaciones para trabajadores mineros, un sistema de liquidaciones de sueldo y otras soluciones de gestión de empresas en ámbitos como transporte de carga y bodegaje, entre muchos otros.

Además, trabajamos en países como Canadá en ambiciosos proyectos con nuestros partners tecnológicos.

¡Súmate a la revolución digital TCIT!

Apply to this job directly at getonbrd.com.

¿Qué harás?

  • Liderar la implementación y configuración de Mambu según los requerimientos del negocio.
  • Diseñar soluciones específicas utilizando las capacidades de Mambu, asegurando la escalabilidad y sostenibilidad.
  • Colaborar con las áreas de negocio y tecnología para identificar necesidades y traducirlas en soluciones técnicas.
  • Participar en el levantamiento de requerimientos y diseñar flujos de trabajo adaptados a Mambu.
  • Planificar y coordinar proyectos relacionados con Mambu, asegurando el cumplimiento de plazos, alcance y presupuesto.
  • Monitorear avances y generar reportes para stakeholders.
  • Capacitar a los equipos internos y usuarios clave en el uso de Mambu.
  • Actuar como punto de contacto para consultas y resolución de problemas relacionados con la plataforma.
  • Supervisar la integración de Mambu con otros sistemas y plataformas utilizadas por la organización.
  • Coordinar con equipos de TI para asegurar una conectividad fluida y segura.

¿Cómo nos gustaría que fueras?

  • Título profesional en Ingeniería en Informática, Sistemas, Computación o carrera afín.
  • Experiencia mínima de 3-5 años en la implementación y gestión de Mambu
  • Experiencia en metodologías ágiles de gestión de proyectos (Scrum, Kanban).
  • Conocimientos demostrables en integraciones mediante APIs RESTful.
  • Sólida comprensión de la arquitectura de Mambu y su configuración.
  • Experiencia en herramientas de integración y middleware.
  • Conocimientos de bases de datos SQL y herramientas de monitoreo.
  • Excelentes habilidades de comunicación y liderazgo.
  • Capacidad para gestionar múltiples proyectos simultáneamente.
  • Orientación a resultados y resolución de problemas.
  • Adaptabilidad y capacidad para trabajar en entornos dinámicos.

Te amaríamos más si tuvieras/fueras:

  • Certificaciones relacionadas con Mambu u otras plataformas de core bancario.

Beneficios TCIT

🚇 Trabajarás 100% remoto: puedes trabajar 100% online, pero si quieres conocer a tu team, eres bienvenido en nuestras oficinas ubicadas a pasos del metro
🕒 Flexibilidad que se adapta a ti: Contamos con permisos flexibles para que tengas el equilibrio que necesitas.
🌴 ¡Más días de descanso! Disfruta de más días de vacaciones y recarga energías.
🎁 Beneficios increíbles: Accede a cientos de convenios y oportunidades con Caja de Compensación Los Andes y ACHS.
🎓 ¡Certifícate gratis! Somos Google Partners, y te damos acceso gratuito a certificaciones para que sigas creciendo.
🔧 Equipos y soporte técnico: ¡No te preocupes por las herramientas! Te entregamos un computador y cubrimos cualquier falla técnica.
Recarga energías: Contamos con una estación de cafetería para que siempre estés a gusto.
🎉 ¡Ven a compartir! Los asados y reuniones son parte de nuestra cultura; cualquier excusa es buena para celebrar.

Outdoors The premises have outdoor spaces such as parks or terraces.
Fully remote You can work from anywhere in the world.
Internal talks TCIT offers space for internal talks or presentations during working hours.
Meals provided TCIT provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Computer repairs TCIT covers some computer repair expenses.
Commuting stipend TCIT offers a stipend to cover some commuting costs.
Computer provided TCIT provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal TCIT gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Jefe de Proyecto
  • Genesys Tecnologías de Inform. SpA
Agile Project Manager SQL Server Project Management

En Genesys Tecnologías de Información SpA, una empresa con más de 30 años de experiencia en el mercado Latinoamericano, ofrecemos soluciones innovadoras en desarrollo de software y servicios TI. Apoyamos la transformación digital de las empresas utilizando tecnologías de última generación como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos.
Buscamos un profesional con sólida experiencia en la gestión de proyectos de implementación de software, deseable con conocimientos en el ámbito financiero. Este líder debe contar con conocimientos técnicos en herramientas de desarrollo y bases de datos, así como habilidades para manejar equipos diversos y coordinar proyectos complejos en entornos de alta exigencia.

Find this vacancy on Get on Board.

Principales Responsabilidades

  • Gestión de Proyectos: Planificar, ejecutar y supervisar todas las fases del proyecto desde la concepción hasta la implementación, asegurando el cumplimiento de objetivos, calidad y tiempos establecidos.
  • Gestión de Equipos: Coordinar y supervisar a los equipos de desarrollo, pruebas y soporte. Garantizar un flujo de comunicación efectivo entre las partes interesadas internas y externas.
  • Supervisión Técnica: Proporcionar soporte y orientación técnica a los equipos de desarrollo, participando en la revisión y validación de arquitecturas y soluciones propuestas.
  • Gestión de Riesgos y Calidad: Identificar riesgos técnicos y operativos, implementando planes de mitigación y asegurando que el software cumpla con los estándares de calidad requeridos.

Descripción del Puesto

Buscamos un profesional con al menos 5 años de experiencia como Jefe de Proyecto en implementación de software, con antecedentes sólidos en proyectos de sistemas financieros o de gestión empresarial. El candidato ideal debe tener un historial de éxito en la entrega de proyectos, cumpliendo plazos y ajustándose a presupuestos. Además, se espera que posea conocimientos técnicos en herramientas de desarrollo y bases de datos, así como habilidades de liderazgo para manejar equipos diversos y coordinar proyectos complejos en entornos de alta exigencia.

Habilidades Deseables

Se valorarán conocimientos en Genexus, incluyendo desarrollo y mantenimiento de aplicaciones; así como experiencia en Visual Studio .NET para supervisar proyectos bajo esta plataforma. También, es deseable una sólida competencia en SQL Server, incluyendo diseño, gestión y optimización de bases de datos relacionales. La familiaridad con metodologías tradicionales de gestión de proyectos y enfoques ágiles es un plus. Por último, la experiencia con herramientas de gestión de proyectos como Microsoft Project, Trello, y conocimientos en plataformas de colaboración como SharePoint y Teams serán considerados.

Se Ofrece

Ofrecemos un tipo de contrato indefinido y la modalidad de trabajo es 100% remoto. Nuestro horario de oficina es de lunes a viernes, de 08:30 a 18:30 horas. Formar parte de Genesys significa ser parte de una organización en crecimiento que valora la innovación y el desarrollo profesional.

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Dental insurance Genesys Tecnologías de Inform. SpA pays or copays dental insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 2000 Tiempo completo
UX Researcher
  • coderslab.io
  • Buenos Aires (Hybrid)
UI Design Analytics Data Analysis Usabilidad
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un UX RESEARCHER para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply directly from Get on Board.

Funciones del cargo

  • Realizar investigación UX utilizando métodos cualitativos (entrevistas exploratorias, etnografía, tests de usabilidad, encuestas, cuestionarios) y cuantitativos (análisis de métricas, A/B testing).
  • Recopilar y analizar datos de usuarios para responder preguntas clave: ¿Quiénes son?, ¿Cómo se comportan?, ¿Cuáles son sus necesidades y dolores?
  • Utilizar herramientas como Google Analytics, SQL, Hotjar (mapas de calor) para el seguimiento y análisis de datos de uso.
  • Diseñar y ejecutar tests de usabilidad y estudios A/B para evaluar la experiencia de usuario y validar hipótesis.
  • Colaborar con equipos multidisciplinarios para proponer soluciones simples a problemas medianamente complejos dentro de la célula de trabajo.
  • Cuestionar prioridades, identificar dependencias e impactos en otros equipos y aportar mejores prácticas UX basadas en experiencia previa.
  • Documentar y presentar hallazgos de investigación para apoyar la toma de decisiones estratégicas en el diseño de productos digitales.
  • Realizar visitas ocasionales a tiendas para actividades de campo relacionadas con la investigación UX.

Requerimientos del cargo


Formación Académica
  • Licenciatura en Historia del Arte, Diseño UX/UI o carreras afines.
  • Formación complementaria en Diseño UX/UI, Design Thinking o metodologías de investigación en experiencia de usuario.

Experiencia
  • Experiencia comprobada (mínimo 2 años) en UX Research, incluyendo diseño y ejecución de tests de usabilidad, entrevistas, encuestas y análisis de datos.
  • Experiencia en investigación cualitativa y cuantitativa aplicada a productos digitales.
  • Manejo avanzado de herramientas como Google Analytics, SQL, Hotjar, Figma, Adobe XD o similares para análisis y prototipado.
  • Experiencia en diseño de User Personas, User Journey y UX Writing es valorada.
  • Experiencia docente o en formación relacionada con diseño UX es un plus.

Habilidades y Competencias
  • Capacidad analítica para interpretar datos y extraer insights accionables.
  • Autonomía y proactividad para gestionar investigaciones y proponer soluciones.
  • Habilidades de comunicación para presentar resultados a equipos técnicos y de negocio.
  • Orientación al usuario y sensibilidad para entender sus necesidades y comportamientos.
  • Trabajo en equipo y colaboración multidisciplinaria.
  • Idiomas: Español nativo, inglés avanzado deseable, portugués básico valorado.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer Sr
  • CMPC
  • Santiago (Hybrid)
Python Analytics Agile Git

Responsable de la concepción, elaboración y despliegue de soluciones analíticas robustas y escalables en producción, priorizando la eficiencia, facilidad de mantenimiento y rapidez en la entrega. Centrado en el desarrollo en la nube, utilizando estadística, Machine Learning clásico, Deep Learning y/o Inteligencia Artificial Generativa (Gen AI). Responsable de asegurar altos niveles de calidad, rendimiento e integridad en modelos y pipelines implementados. Trabaja en estrecha colaboración con Ingenieros de Datos, Desarrolladores, DevOps, Arquitectos, Product Managers, Líderes Técnicos, Científicos de Datos y profesionales del negocio, promoviendo iniciativas estratégicas de la organización mediante la implementación de soluciones analíticas en producción.

Apply through Get on Board.

Funciones del cargo

  • Crear Pipelines de Machine Learning completos: diseña, implementa y mantiene flujos de entrenamiento, validación y despliegue garantizando trazabilidad, reproducibilidad y monitoreo continuo en producción bajo principios de MLOps.
  • Gestiónar datos: Lidera procesos ETL para el entrenamiento y serving, asegurando calidad y disponibilidad mediante pipelines automatizados y versionados en el data warehouse.
  • Exponer modelos de Machine Learning: Despliega y opera modelos (propios, de terceros y gen-AI) como APIs seguras, escalables y monitorizadas, integradas con las aplicaciones analíticas de la gerencia.
  • Optimizar modelos de Machine Learning: realiza fine-tuning y aplica buenas prácticas (prompt management, feature store, RAG, etc.) para maximizar desempeño y eficiencia.
  • Aportar en la evolución del framework de MLOps: impulsa la mejora continua de estándares CI/CD, infra serverless, gobernanza de features y automatización de procesos.
  • Liderazgo técnico: Actúa como referente y agente de cambio digital, promoviendo buenas prácticas y documentación rigurosa en todo el equipo.

Requerimientos del cargo

Formación: Ingeniería informática, ingeniería matemática, ingeniería industrial, estadística o similar.

Experiencia:

  • 5 años o más como machine, learning engineer o equivalente.

Conocimiento específico:

  • Herramientas Cloud para Machine Learning y analítica, de preferencia Vertex AI o en su defecto, experiencia en kuberflow (Excluyente).
  • Control de versión con Git (Excluyente).
  • Experiencia creando pipelines de CI/CD (Excluyente).
  • Dominio en Gitlab /Github o similar (Excluyente).
  • Deseable Metodologías agiles (Scrum, Kanban).
  • Deseable experiencia comprobada en desarrollo de aplicaciones basadas en Gen IA (conocimiento de ADK preferente o LangGraph).
  • Deseable dominio de Terraform.
  • Deseable experiencia con solvers de optimización lineal entera de preferencia Gurobi.
  • Deseable experiencia con docker.
  • Deseable experiencia con Arquitectura serverless.

Computación:

  • Python Avanzado (Excluyente)
  • SQL (Excluyente)

Condiciones

  • Contrato: Indefinido
  • Ubicación: Santiago
  • Modalidad: 4x1( 4 días presencial, 1 día online)

Health coverage CMPC pays or copays health insurance for employees.
Computer provided CMPC provides a computer for your work.
Beverages and snacks CMPC offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2800 - 3000 Tiempo completo
AI Engineer
  • TCIT
  • Santiago (Hybrid)
Python Cloud Computing Back-end Google Cloud Platform
En TCIT, somos líderes en el desarrollo de software en modalidad Cloud, con la misión de transformar digitalmente organizaciones a través de soluciones sostenibles e innovadoras. Nuestro equipo está compuesto por profesionales apasionados y enfocados en generar un impacto positivo. Hemos trabajado en proyectos variados, desde sistemas de gestión agrícola hasta soluciones específicas para la industria judicial. Actualmente colaboramos con importantes partners tecnológicos en ambiciosos proyectos en países como Canadá.

Applications at getonbrd.com.

Funciones del cargo

  • Participar en el desarrollo de un agente conversacional full code en base a una arquitectura ya definida sobre Google Cloud Platform (GCP).
  • Colaborar con el equipo técnico en la implementación de soluciones utilizando Vertex AI, Cloud Functions y Cloud Storage.
  • Aplicar buenas prácticas de desarrollo y documentación técnica.
  • Autogestionarse y colaborar de forma proactiva en un equipo que busca mantener un alto estándar técnico y de innovación.

Requerimientos del cargo

  • Experiencia práctica desarrollando soluciones en GCP (idealmente entre 3 y 6 años)
  • Conocimientos en Vertex AI, Cloud Functions y manejo de Cloud Storage.
  • Experiencia en desarrollo de agentes IA o asistentes conversacionales mediante código (sin plataformas low-code).
  • Dominio en Python para desarrollo backend y procesamiento de datos.
  • Habilidades de autogestión, curiosidad constante y proactividad.

Opcionales

Experiencia en algunas de las siguientes herramientas o librerías:
  • LangChain, Hugging Face, Google PaLM API, OpenAI API, Generative AI Studio
  • FastAPI, Flask, gRPC
  • BigQuery, Firestore, Cloud SQL
  • Integraciones externas como Slack API, Twilio, WhatsApp Business API, Gmail/Calendar API
  • Conocimiento de buenas prácticas en CI/CD con GitHub Actions o Cloud Build
  • Familiaridad con herramientas de monitoreo como Stackdriver

Condiciones

En TCIT, garantizamos un ambiente laboral enriquecedor con:
  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉
¡Esperamos que te unas a la revolución digital de TCIT y a nuestra apasionada comunidad!

Computer provided TCIT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer Inteligencia Artificial
  • DSS S.A.
Python PostgreSQL SQL Virtualization

Somos DSS, una consultora ambiental con 22 años de experiencia y más de 100 colaboradores. Apoyamos a nuestros clientes a cumplir con la normativa ambiental, contribuyendo a un desarrollo sustentable. Actualmente, estamos desarrollando plataformas para la gestión ambiental que incluyen herramientas de Inteligencia Artificial. Si te interesa aplicar tus conocimientos en tema ambientales y contribuir en la lucha al cambio climático, este es el lugar.

Job opportunity on getonbrd.com.

Tus Funciones

Buscamos un/a Data Engineer Senior con foco en IA, que se una a nuestro equipo para liderar el diseño y automatización de pipelines de datos, y contribuir directamente en la infraestructura que habilita nuestros sistemas de machine learning y procesamiento de lenguaje natural.

  • Diseñar y optimizar pipelines de datos (ETL/ELT) para alimentar modelos de inteligencia artificial.
  • Colaborar con científicos de datos e ingenieros de ML en la preparación, validación y entrega de datasets de entrenamiento.
  • Automatizar procesos de extracción, transformación y carga masiva de datos desde múltiples fuentes.
  • Administrar bases de datos en entornos cloud (Azure) y locales (PostgreSQL).
  • Participar en el diseño de arquitecturas modernas (data lakehouse, medallion) para estructuración eficiente de datos.
  • Orquestar workflows de datos con herramientas como Azure Data Factory o similares (Airflow, Prefect, etc.), que se integren a pipelines CI/CD en Azure DevOps para el ciclo completo de datos.

Requerimientos del cargo

  • Al menos 3 años de experiencia como Data Engineer, con participación en proyectos de IA o machine learning.
  • Dominio avanzado de Python (pandas, NumPy, PySpark) y SQL.
  • Experiencia con herramientas de orquestación de datos como Azure Data Factory o similares (Airflow, Prefect, etc.).
  • Conocimiento de arquitecturas de datos en la nube (idealmente en Azure, pero también valoramos experiencia en AWS o GCP).
  • Experiencia trabajando con grandes volúmenes de datos estructurados y no estructurados.
  • Familiaridad con conceptos de machine learning y pipelines de entrenamiento.

Deseables

  • Experiencia en la construcción y optimización de pipelines para big data.
  • Manejo de pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.

Condiciones

  • Trabajo remoto, con algunas reuniones presenciales a la semana (internas y con clientes).
  • Contamos con oficinas en Concepción y Santiago.
  • No tenemos código de vestimenta.
  • Estamos afiliados a caja de compensación, donde podrás acceder a beneficios.
  • Tenemos convenio para seguro de salud.
  • Celebramos almuerzos mensuales, aniversario y otras actividades.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage DSS S.A. pays or copays health insurance for employees.
Computer provided DSS S.A. provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply without intermediaries from Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
Data Scientist & Machine Learning Engineer
  • Niuro
Python SQL Django DevOps
Niuro is a company dedicated to connecting elite technology teams with leading companies in the U.S. We specialize in providing autonomous, high-performance tech teams focused on delivering innovative solutions globally. Our projects typically involve industrial data initiatives that demand technical excellence and innovation. The role will contribute to advanced machine learning and data science projects that aim to drive business value and technological advancement for top-tier U.S. clients. Our teams benefit from a collaborative environment with continuous professional development and administrative support, enabling a focus on impactful and challenging work.

This job is published by getonbrd.com.

Key Responsibilities

As a Data Scientist & Machine Learning Engineer at Niuro, you will play a crucial role in developing, deploying, and maintaining machine learning models and data-driven solutions. Your responsibilities include:
  • Designing and implementing machine learning pipelines and models using Python with a focus on production readiness.
  • Collaborating with cross-functional teams to understand data requirements and deliver scalable solutions that solve complex problems.
  • Integrating ML models into production environments with the help of MLOps practices and DevOps methodologies.
  • Working with large language models (LLMs) and Retrieval-Augmented Generation (RAG) techniques to enhance conversational AI and data accessibility.
  • Monitoring model performance, retraining and optimizing as needed to maintain high accuracy and robustness.
  • Documenting workflows and solutions clearly for team communication and knowledge sharing.

Required Qualifications and Skills

We are seeking an expert Python developer with proven hands-on experience and certification to lead our machine learning projects. The ideal candidate must also possess strong expertise in ML and Data Science, demonstrating a solid understanding of algorithms, data processing, and statistical modeling.
Additional required skills include familiarity with MLOps and DevOps practices to streamline development and deployment cycles effectively. Experience with large language models (LLMs) and Retrieval-Augmented Generation (RAG) is important to support our conversational AI initiatives.
Effective communication skills in English at a conversational level are necessary to collaborate efficiently within our distributed, international teams.
Technical requirements: Expert-level Python programming skills (certified preferred); solid experience with machine learning frameworks and libraries; familiarity with software development best practices in an ML context.

Preferred Skills & Additional Experience

While not mandatory, the following skills would be valuable:
  • Experience with Python web frameworks such as Django and FastAPI.
  • Working knowledge of SQL databases for data querying and manipulation.
  • Practical experience with Docker containerization to support reproducible environments.
  • Familiarity with version control using Git, and Python data validation tools like Pydantic.
  • Understanding of the Gunicorn application server for deploying Python web applications.

Benefits and Work Environment

At Niuro, you will have the opportunity to work 100% remotely from LATAM, providing full flexibility and work-life balance. We offer competitive compensation aligned with experience and skills.
We invest in continuous training and leadership development to help you grow professionally while working on impactful and technically rigorous data projects.
We foster a culture of collaboration, innovation, and technical excellence, supported by a robust administrative infrastructure so you can focus purely on your technical challenges.
Upon successful completion of the initial contract, there is a strong opportunity for long-term, stable full-time employment with Niuro.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo