No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

Gross salary $1400 - 1900 Tiempo completo
Consultor Data Engineer
  • MAS Analytics
  • Santiago (Hybrid)
SQL Azure ETL Power BI

MAS Analytics es una consultora de datos e inteligencia artificail que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día tenemos muchos proyectos con clientes de muchos rubros distintos y necesitamos ingeniero/as apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

© getonbrd.com. All rights reserved.

Funciones del cargo

Estamos buscando ingenier@s que sepan trabajar con datos, mover datos, interpretar datos y buscar datos. El cargo está orientado hacia la ingeniería de datos utilizando herramienta de ETL, Bases de datos y herramientas de reportería.

Si no manejas alguno de estos conceptos, no te preocupes, nos importa que tengas las bases para poder aprender y desafiarte día a día.

Tendrás que realizar las siguientes tareas (entre otras):

  1. Reuniones de negocio con clientes
  2. Creación de queries SQL
  3. Creación de pipelines ETL (on premise y cloud)
  4. Creación de visualizaciones en herramientas de BI

El éxito de tu trabajo se evaluará en el nivel de satisfacción de los modelos entregados a los clientes y en el cumplimiento de plazos.

Trabajarás dentro de los equipos de desarrollo de MAS Analytics teniendo reuniones de avance semanal con los clientes y otros miembros del equipo de MAS Analytics.

Requerimientos del cargo

Al ser consultoría en tecnología, necesitamos que tengas habilidades técnicas y habilidades blandas. Se privilegiarán perfiles de ingeniería civil TI o Computación.
En cuanto a las habilidades técnicas, se espera que puedas trabajar con las siguientes herramientas:
  1. Queries SQL (CRUD)
  2. Procesamiento: Dataflow (GCP, Azure), Lambda, Glue (AWS)
  3. Visualizaciones: Qlik, Tableau, Power BI
  4. Modelamiento de datos: modelos dimensionales OLAP
Con respecto a las habilidades blandas, necesitamos que estés preparada/o para:
  1. Llevar comunicación con los clientes
  2. Levantar requerimientos
  3. Trabajo en equipo
  4. Proactividad
  5. Pensamiento analítico

Opcionales

Conocimientos en herramientas Cloud (GCP, AWS, Azure)

Algunos beneficios

  1. Horario flexible
  2. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  3. Ambiente laboral joven
  4. Viernes medio día
  5. Vacaciones extra 🌞🏝
  6. Celebraciones de cumpleaños 🎁🎊
  7. Actividades de empresa 🍻⚽
  8. Y muchos más que podrás conocer…

Wellness program MAS Analytics offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Education stipend MAS Analytics covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Analyst
  • Macal
  • Santiago (Hybrid)
Analytics Data Analysis English Data Visualization

Buscamos un/a Data Analyst que ayude a transformar datos en información útil a través del análisis profundo y la visualización adecuada, apoyando así la optimización de nuestros procesos y resultados.

Estamos construyendo algo grande y buscamos mentes curiosas que quieran marcar la diferencia. Este es un espacio para proponer, crear y ser protagonista de soluciones disruptivas en el mercado.

Un entorno que fomenta la innovación y el aprendizaje continuo. Trabajarás en proyectos desafiantes que tienen un impacto real, y disfrutarás de flexibilidad para equilibrar tu vida personal y profesional. Formarás parte de un equipo comprometido, enfocado en trabajar en tándem.

Ofrecemos un sistema híbrido y flexible, 3 días libres adicionales al año, seguro complementario, y acceso a programas de bonos anuales por cumplimiento de resultados. ¡Únete a nosotros y sé parte de algo grande!

Originally published on getonbrd.com.

¿Qué harás?

El/la Data Analyst será un pilar fundamental en nuestro equipo, donde sus principales responsabilidades serán:

  • Recopilar datos de diversas fuentes.
  • Depurar y analizar grandes volúmenes de datos para identificar patrones y tendencias relevantes mediante la utilización de herramientas de extracción de datos.
  • Establecer metas y proyecciones basadas en datos.
  • Generar Insights relevantes para el negocio.
  • Generar reportería de datos de manera efectiva, utilizando herramientas de visualización para facilitar la toma de decisiones estratégicas.
  • Colaborar estrechamente con distintas áreas para optimizar procesos y resultados basados en datos.

El objetivo es aportar en la identificación de oportunidades de mejora que mantengan a nuestros clientes en el centro de nuestro negocio.

¿Qué buscamos?

Para el rol de Data Analyst, estamos buscando una persona con:

  • Titulación en áreas relacionadas con datos, ciencias computacionales o estadísticas.
  • Experiencia en análisis de datos y manejo de herramientas de visualización de datos.
  • Conocimientos en herramientas de extracción y visualización de datos son esenciales; habilidades en programación son un plus.
  • Actitud proactiva y mentalidad analítica, con la capacidad para comunicar hallazgos de manera clara y efectiva.
  • Habilidades interpersonales para trabajar en equipo y aportar con visión innovadora.
  • Inglés intermedio.

Buscamos mentes curiosas que amen cuestionar el estado actual de las cosas y que estén comprometidas con el crecimiento basado en datos.

Nuestros beneficios

Ofrecemos un entorno de trabajo dinámico y flexible, que incluye:

  • Un sistema híbrido y flexible, en el que trabajarás algunos días presenciales a la semana.
  • 3 días adicionales libres al año, además de tus vacaciones legales.
  • Un mes de teletrabajo 100% al año.
  • Seguro complementario para cuidar de tu salud y bienestar.
  • Acceso a un programa de bonos anuales basado en el cumplimiento de resultados.

En Macal, promovemos un ambiente de trabajo interesante, cercano y feliz, donde tus ideas y experiencias serán valoradas.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Macal pays or copays health insurance for employees.
Computer provided Macal provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Consultor de Gobierno de Datos GCP
  • Factor IT
Google Cloud Platform Data governance Agile Methodologies Data Security

El área de Data & Analytics en FactorIT se dedica a desarrollar soluciones innovadoras que optimizan los procesos de gestión y transformación de datos, contribuyendo al éxito digital de nuestros clientes. Trabajamos con tecnologías de punta y equipos multidisciplinarios para diseñar estrategias que integran inteligencia artificial y automatización, garantizando la competitividad y eficiencia en entornos altamente regulados como el bancario.

Apply at the original job on getonbrd.com.

Funciones principales (responsabilidades)

En el rol de Consultor de Gobierno de Datos, nuestro objetivo es definir y establecer políticas sólidas para el manejo y gobernanza de datos dentro del marco regulatorio bancario. Esto implica la implementación integral del marco de Gobierno de Datos utilizando Dataplex en Google Cloud Platform, asegurando la seguridad, integridad y cumplimiento normativo en todo el ciclo de vida de los datos.

  • Establecer y documentar políticas, estándares y procedimientos para el Gobierno de Datos.
  • Implementar y configurar Dataplex para gestionar recursos de datos en la nube, facilitando la catalogación, clasificación y gobernanza de activos de datos.
  • Colaborar con equipos técnicos y de negocio para traducir requisitos en soluciones concretas y alineadas con regulaciones financieras.
  • Monitorear el cumplimiento de normativas internas y externas relacionadas con la gestión y seguridad de datos bancarios.
  • Promover buenas prácticas de datos, atención a auditorías y asegurar que los datos se manejen conforme a estándares regulatorios.
  • Trabajar en equipos multidisciplinarios y metodologías ágiles para adaptarse a entornos dinámicos y proyectos en evolución.

Requisitos Excluyentes (años de experiencia, herramientas o cursos de capacitación)

  • Experiencia mínima de 5 años en consultoría de Gobierno de Datos.
  • Al menos 2 años de experiencia práctica con Google Cloud Platform (GCP), específicamente Dataplex.
  • Conocimiento profundo de regulaciones y estándares del sector bancario y financiero.
  • Manejo avanzado de plataformas de datos en la nube.
  • Capacidad para diseñar políticas y marcos de gobernanza robustos.
  • Experiencia en la implementación de soluciones técnicas que aseguren la calidad, integridad y confidencialidad de los datos.
  • Conocimientos complementarios en transformación digital, analítica avanzada y automatización de procesos data-driven.

Habilidades personales:

  • Excelentes habilidades de comunicación para interactuar con equipos de negocio y tecnología.
  • Proactividad y autonomía para identificar oportunidades de mejora.
  • Capacidad para traducir necesidades del negocio en soluciones técnicas claras.
  • Trabajo colaborativo en ambientes ágiles y multidisciplinarios.
  • Adaptabilidad para enfrentar nuevos desafíos y entornos cambiantes.

Habilidades blandas (competencias, aptitudes o habilidades de importancia para el cargo)

Se valoran cualidades como una comunicación efectiva y clara para facilitar el entendimiento entre áreas técnicas y de negocio, fomentando una colaboración fluida e integrada. La iniciativa y la autonomía para proponer mejoras, anticipándose a potenciales riesgos o ineficiencias, son altamente apreciadas. Asimismo, consideramos importante la capacidad de adaptarse rápida y positivamente a los cambios propios de entornos dinámicos y proyectos tecnológicos en constante evolución.

También es deseable contar con experiencia en metodologías ágiles y trabajo en equipos multidisciplinarios, evidenciando habilidades de liderazgo situacional y resolución de conflictos para impulsar el éxito del proyecto. El compromiso con la calidad, la atención al detalle y el pensamiento crítico son competencias blandas esenciales para el cumplimiento riguroso de los estándares regulatorios y técnicos.

Beneficios

FactorIT ofrece una modalidad laboral 100% remota que facilita un equilibrio saludable entre la vida personal y profesional, ajustándose a las necesidades de cada colaborador. Contamos con un entorno colaborativo y dinámico, con acceso constante a tecnologías de última generación, fomentando la innovación y el aprendizaje continuo.

Además, brindamos un salario competitivo y acorde al perfil profesional y experiencia, en un ambiente inclusivo que promueve la diversidad y la creatividad. Únete a un equipo que está transformando el futuro de la tecnología y el análisis de datos en Latinoamérica, participando en proyectos retadores con impacto real en el sector financiero.

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Business Intelligence Analyst
  • Compara
Python PostgreSQL Git Data Analysis

En Compara estamos buscando un Business Intelligence Analyst para unirse a nuestro equipo de Product Operations.
Tu misión será ayudarnos a comprender y optimizar el desempeño de nuestros productos basados en inteligencia artificial, convirtiendo datos en insights accionables que impulsen decisiones estratégicas y generen un impacto tangible en el negocio.

Apply without intermediaries from Get on Board.

🎯 ¿Qué harás?

  • Generar reportes, dashboards y métricas clave que nos ayuden a monitorear y potenciar nuestros productos de IA.
  • Analizar KPIs, detectar errores y generar insights para la mejora continua.
  • Colaborar con equipos de producto, tecnología y otras áreas para resolver desafíos estratégicos basados en datos.
  • Apoyar la configuración y el mantenimiento de nuestros productos de IA, incluyendo tareas relacionadas a prompt engineering.

🔎 ¿A quién buscamos?

  • Experiencia en roles de Business Intelligence.
  • Manejo de herramientas BI (idealmente Metabase).
  • Dominio de SQL (preferiblemente PostgreSQL).
  • Conocimientos prácticos de Python para análisis o automatización de datos.
  • Conocimiento básico de versionado con Git.
  • Pensamiento analítico, autonomía y habilidades colaborativas para definir métricas de producto y resolver problemas con actitud proactiva.

🌟 Será un plus si cuentas con:

  • Conocimiento en data engineering: ETL/ELT, pipelines y automatización de procesos.
  • Experiencia en prompt engineering o trabajo con modelos de lenguaje (LLMs).
  • Experiencia trabajando en contextos profesionales enfocados en soluciones y proyectos de inteligencia artificial.

Si te motiva trabajar con datos, inteligencia artificial y tecnología de punta en un equipo ágil, colaborativo y con impacto real en el negocio, ¡nos encantaría conocerte!🚀

Beneficios

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Consultor de Calidad de Datos GCP
  • Factor IT
Automation Google Cloud Platform Data governance Agile Methodologies

El proyecto está dentro del área de Data & Analytics y tiene un impacto significativo en la gestión y explotación de datos. Utiliza tecnologías modernas de Google Cloud Platform, con un enfoque específico en Dataplex, para gestionar reglas de calidad y procesos de monitoreo avanzados en el entorno financiero. Contamos con un equipo multidisciplinario que trabaja en colaboración para entregar soluciones escalables y eficientes, que se ajustan a las necesidades específicas del cliente.

Apply without intermediaries from Get on Board.

Funciones principales (responsabilidades)

Como Consultor de Calidad de Datos, tu rol será fundamental para asegurar la integridad y confiabilidad de los datos en el proyecto. Entre tus funciones clave se incluyen:

  • Definir y especificar reglas de calidad de datos, alineadas con los requerimientos del cliente y mejores prácticas del sector financiero.
  • Implementar y configurar dichas reglas directamente en la plataforma Dataplex, garantizando que el sistema detecte y controle temas como inconsistencias, duplicados o anomalías en los datos.
  • Monitorear continuamente las reglas de calidad, realizando evaluaciones periódicas para asegurar la correcta aplicación y detectar oportunidades de mejora.
  • Utilizar funcionalidades avanzadas de Data Profiling dentro de Dataplex para analizar estadísticamente los datos y así obtener un diagnóstico profundo y preciso.
  • Promover la mejora continua en los procesos de calidad de datos, proponiendo ajustes, automatizaciones y nuevas prácticas que optimicen la gestión y control de la información.

Esta posición requiere una estrecha colaboración con equipos tanto técnicos como de negocio, asegurando que las soluciones técnicas reflejen fielmente las necesidades organizacionales, especialmente en el sector financiero.

Requisitos Excluyentes (años de experiencia, herramientas o cursos de capacitación)

Estamos buscando a un profesional con sólida experiencia en calidad de datos, especialmente en el sector bancario y financiero, para unirse a nuestro equipo en este proyecto desafiante y de alto impacto. Los requisitos indispensables para el cargo incluyen:
  • Experiencia mínima de 3 años en roles relacionados con la consultoría de calidad de datos, preferentemente en entornos regulados y con gran volumen de información.
  • Al menos 2 años de experiencia práctica utilizando Google Cloud Platform (GCP) y, de forma específica, trabajando con Google Dataplex para gestionar y aplicar reglas de calidad, así como para realizar data profiling.
  • Conocimiento profundo de las metodologías y técnicas de gobierno y calidad de datos, incluyendo establecimiento de métricas, definición de políticas y manejo de herramientas tecnológicas complementarias.
Además de la expertise técnica, buscamos un candidato con fuertes habilidades interpersonales y de comunicación, capaz de interactuar efectivamente con equipos de tecnología y negocio. Debe ser autónomo y proactivo, con la capacidad para identificar oportunidades de mejora y traducir las necesidades del negocio en soluciones técnicas adecuadas. La habilidad para trabajar en equipo dentro de un entorno ágil, dinámico y multidisciplinario es esencial, así como la adaptabilidad para evolucionar junto con los cambios del proyecto y la organización.

Habilidades blandas (competencias, aptitudes o habilidades de importancia para el cargo)

  • Excelentes habilidades comunicativas para facilitar el diálogo entre equipos técnicos y áreas de negocio, promoviendo un entendimiento común y efectivo.
  • Alta autonomía y proactividad para la identificación y implementación de mejoras continuas en los procesos de calidad de datos.
  • Capacidad para interpretar necesidades de negocio y traducirlas en requerimientos técnicos y soluciones robustas.
  • Experiencia trabajando en equipos ágiles y multidisciplinarios, colaborando con diferentes perfiles profesionales.
  • Adaptabilidad en entornos dinámicos y en constante evolución tecnológica, siendo flexible ante cambios y desafíos.

Beneficios

FactorIT ofrece un entorno laboral 100% remoto, lo que facilita un balance saludable entre la vida personal y profesional. Contamos con un ambiente colaborativo y dinámico donde el acceso a tecnologías de última generación es una constante. Nuestro plan de crecimiento profesional incluye capacitaciones especializadas, especialmente en áreas de inteligencia artificial y automatización. Además, brindamos flexibilidad horaria para que puedas adaptar tu jornada a tus necesidades, y ofrecemos un salario competitivo acorde a tu experiencia y nivel profesional.
Únete a un equipo innovador que está transformando el futuro de la tecnología en Latinoamérica, participando en proyectos desafiantes y con impacto real en industrias clave como el sector financiero.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $750 - 800 Tiempo completo
Técnico en Informática
  • Datasur
  • Santiago (Hybrid)
Python MySQL PostgreSQL SQL

En Datasur, somos líderes en inteligencia comercial basada en datos de comercio exterior. Nuestra plataforma procesa millones de registros de importaciones y exportaciones de más de 70 países, y estamos listos para escalar más alto.

Este debe asegurar la correcta gestión y actualización de las bases de datos de comercio internacional, manteniendo altos estándares de calidad en la información procesada. Contribuir a la generación de reportes y análisis estratégicos para clientes de diversos sectores.

© getonbrd.com.

Funciones del cargo

El tecnico en informatica sera responsable de la recolección, procesamiento y validación de información de importaciones y exportaciones en la plataforma de Datasur. Su rol es clave para garantizar la precisión y actualización de las bases de datos comerciales, apoyando el desarrollo de reportería y análisis de mercado para los clientes de la empresa.

  • Recopilar y procesar datos de importaciones y exportaciones desde diversas fuentes, incluyendo información aduanera y manifiestos de carga.
  • Validar, limpiar y estandarizar los datos para garantizar su confiabilidad y precisión.
  • Gestionar la carga y actualización de la información en la plataforma de Datasur.
  • Apoyar en la elaboración de reportería y análisis de mercado para clientes.
  • Identificar inconsistencias o errores en la información y coordinar su corrección.
  • Mantener comunicación con proveedores de datos y equipos internos para garantizar la fluidez en el proceso de actualización de información.
  • Cumplir con los protocolos de calidad y seguridad de datos definidos por la empresa.

Requerimientos del cargo

  • Título técnico en Informatica.
  • Manejo intermedio de Python
  • Conocimientos en SQL, PostgreSQL, MySQL/MariaDB
  • Al menos 1 año de experiencia en procesamiento de datos, análisis de información o manejo de bases de datos (No Excluyente)
  • Atención al detalle y precisión en el manejo de datos.
  • Capacidad analítica para identificar patrones y tendencias en la información.
  • Organización y gestión del tiempo para cumplir con cronogramas de actualización.
  • Habilidad para trabajar en equipo y comunicarse de manera efectiva.
  • Orientación a la mejora continua y resolución de problemas.

Condiciones

  • Seguro complementario de salud.
  • Posibilidad de crecimiento hacia roles de mayor especialización en análisis de datos y reportería.
  • Capacitación en herramientas de procesamiento y análisis de información.
  • Desarrollo profesional en un entorno dinámico de tecnología aplicada al comercio internacional.

Partially remote You can work from your home some days a week.
Health coverage Datasur pays or copays health insurance for employees.
Computer provided Datasur provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analytics Engineer
  • Apply Digital Latam
JavaScript UI Design HTML5 CSS

Apply Digital Latam is part of Apply Digital, a global digital innovation and transformation company founded in 2016 in Vancouver, Canada. With over 750 team members across nine cities in North America, South America, the UK, and Europe, Apply Digital delivers impactful digital solutions for major international clients including Kraft Heinz, NFL, Moderna, Lululemon, Dropbox, Atlassian, A+E Networks, and The Very Group. Within Apply Digital, teams operate in 'pods' that combine senior leadership, subject matter experts, and cross-functional skills, facilitating agile delivery through scrum and sprint practices.. This role is based in Latin America.

Apply directly on Get on Board.

About the Role

As an Analytics Engineer at Apply Digital, you will be responsible for designing, implementing, and maintaining cutting-edge digital analytics solutions that serve our diverse client portfolio. Your core objectives will revolve around ensuring the accuracy, scalability, and reliability of data collection platforms and analytics instrumentation.

  • Develop and deploy robust analytics systems leveraging platforms such as Google Analytics (GA4), Adobe Analytics, and Customer Data Platforms (CDPs) like mParticle and Segment.
  • Collaborate closely with cross-functional teams including developers, product managers, data analysts, and client stakeholders to translate business needs into technical analytics solutions.
  • Maintain and enhance tag management strategies using tools like Google Tag Manager and Tealium, ensuring quality assurance of analytics tags across web and mobile properties.
  • Confirm thorough end-to-end tracking coverage, including attribution persistence through complex content management systems (CMS) and dynamic backend databases.
  • Implement, monitor, and refine data layers and tracking rules according to predefined instrumentation frameworks.
  • Conduct quality assurance (QA) and debugging of analytics implementations and collaborate on documentation such as data dictionaries and QA workflows.
  • Present findings and provide actionable technical recommendations to business stakeholders and senior leadership to support data-driven decision-making.
  • Stay current with industry trends and best practices, contributing to the strategic direction for Apply Digital’s Data & Analytics discipline.

Role Requirements and Qualifications

We are seeking a technically proficient Analytics Engineer with deep expertise in digital analytics platforms and tag management systems. Candidates must demonstrate strong problem-solving skills, attention to detail, and excellent communication abilities to work effectively across distributed teams in North America and Latin America.

  • 5+ years of professional experience implementing and managing advanced digital analytics solutions using platforms such as Google Analytics and Adobe Analytics.
  • Expert-level experience with Google Tag Manager, including advanced implementations, troubleshooting, and debugging.
  • Solid front-end development capabilities with strong understanding of JavaScript, HTML, CSS, and DOM manipulation, enabling precise analytics instrumentation.
  • Hands-on expertise with Customer Data Platforms (CDPs) such as mParticle or Segment to streamline and unify data collection and integration.
  • Proficient with SQL for querying large datasets, preferably with experience using BigQuery or similar cloud-based data warehouses.
  • Experience with data modeling, architecture principles, and designing scalable, privacy-compliant analytics infrastructures.
  • Knowledge of ETL/ELT processes and data warehousing concepts.
  • Familiarity with consent management tools and implementation of privacy regulations within analytics frameworks.
  • Demonstrated ability to manage multiple projects simultaneously in a dynamic, fast-paced environment.
  • Strong verbal and written communication skills in English, required to collaborate with remote and international teams.
  • Bachelor’s degree in Computer Science, Data Science, Analytics, Engineering, or a related field.
  • Experience working with BI and visualization tools such as Looker, Tableau, Power BI, or equivalents for effective data reporting.
  • Ability to translate complex data into actionable business insights, supporting strategic decision-making.
  • Experience with AI-augmented data practices, including usage of tools like Gemini AI, ChatGPT, or BigQuery’s AI SQL Assist to enhance data exploration and insight acceleration.

Soft skills essential for success in this role include a proactive mindset, collaboration, adaptability, and a strong commitment to quality and continuous improvement.

Preferred Skills and Experience

While not mandatory, the ideal candidate may also possess:

  • Familiarity with additional tag management platforms such as Tealium.
  • Experience working within Agile pod structures and knowledge of scrum methodologies.
  • Prior engagement within global, cross-cultural remote teams.
  • Advanced knowledge of data privacy laws and compliance standards such as GDPR and CCPA.
  • Experience in mentoring and guiding junior analytics engineers or analysts.
  • Involvement in open-source analytics tools or community initiatives.

Why Join Apply Digital?

  • Flexible work arrangements to ensure you work where you are most productive—remote, hybrid, or in-office.
  • Competitive benefits package tailored to your needs including extended health and dental plans.
  • Generous paid time off policy promoting a strong work-life balance.
  • Opportunities for continuous learning and professional growth with dedicated training budgets, certifications, workshops, and mentorship programs.
  • Inclusive and safe workplace where diversity is celebrated and all team members feel welcomed and respected.
  • Engaging company culture with regular events like karaoke, escape rooms, and axe throwing to foster team bonding.
  • A growing company with clear career progression paths and promotion from within.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Java Python Git SQL
Genesys Tecnologías de Información SpA es una empresa consolidada en Latinoamérica con más de 30 años de experiencia en el mercado, especializada en soporte y mantenimiento de aplicaciones, RPA, inteligencia artificial, QA Automation, staff augmentation, cloud y más. Acompañamos a las empresas en su camino de transformación digital mediante tecnologías de última generación como Cloud, Data Analytics, Artificial Intelligence y Process Automation. Nuestro equipo multidisciplinario colabora estrechamente con la matriz en Santiago y otras operaciones para brindar soluciones tecnológicas que elevan el estándar tecnológico de las organizaciones.

Applications: getonbrd.com.

Responsabilidades

  • Diseñar y desarrollar canalizaciones de datos (ETL/ELT) robustas y eficientes.
  • Colaborar con equipos de ingeniería para asegurar la integración y calidad de los datos.
  • Implementar y gestionar bases de datos y data warehouses escalables.
  • Optimizar el rendimiento de las bases de datos y sistemas de almacenamiento de datos.
  • Garantizar la calidad, integridad y seguridad de los datos dentro de los sistemas.
  • Automatizar procesos de ingestión y transformación de datos para eficiencia operativa.
  • Monitorizar y solucionar problemas relacionados con los sistemas de datos.
  • Documentar procesos, arquitecturas, y mejores prácticas relacionadas con el manejo de datos para facilitar la continuidad y mejora.

Descripción

Buscamos un Data Engineer talentoso y motivado para integrarse a nuestro equipo de datos. El candidato ideal tendrá experiencia demostrable en roles similares, con habilidades para diseñar, construir y mantener sistemas de datos escalables que faciliten el análisis y la toma de decisiones dentro de la organización.
Requisitos imprescindibles incluyen una licenciatura en Ciencias de la Computación, Ingeniería Informática, Matemáticas o un campo relacionado. Debe poseer conocimientos profundos en SQL y experiencia con bases de datos relacionales y no relacionales, además de manejar grandes volúmenes de datos y trabajar con data lakes.
Es fundamental la experiencia con herramientas de procesamiento de datos como Apache Spark y lenguajes de programación Python. También exigimos conocimiento y experiencia con Google Cloud Platform (Composer, Cloud Functions, BigQuery, Dataproc, etc.), uso de Terraform y git para la gestión de infraestructura y código.
Se valoran igualmente las habilidades analíticas, la capacidad para resolver problemas complejos, excelentes habilidades de comunicación y la capacidad de trabajar colaborativamente en equipo. Además, el candidato debe poseer un nivel de inglés intermedio (B1+) para poder participar activamente en reuniones sin dificultades.

Deseable

  • Conocimientos en el lenguaje de programación Java.
  • Certificaciones relevantes en tecnologías de datos y cloud.
  • Experiencia trabajando en equipos ágiles.

Beneficios

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 5000 Tiempo completo
Data Engineer/Science
  • Ceibo
  • Santiago (Hybrid)
Python Soporte técnico Apache Spark Back-end

En Ceibo, estamos a la vanguardia de la innovación tecnológica y la sostenibilidad, impulsando soluciones basadas en datos para transformar la toma de decisiones dentro de la compañía. Nuestro equipo de Data Science trabaja para convertir datos complejos en información accesible y valiosa que apoye diversos procesos internos. Nos encontramos en una etapa de consolidación y expansión, donde la integración eficiente de datos es clave para acelerar el impacto estratégico y operativo.

Job opportunity on getonbrd.com.

Responsabilidades principales

Como Data Engineer con enfoque en Data Science, serás responsable de estructurar flujos de datos complejos, garantizando su uso eficiente en múltiples procesos de la empresa, que van desde la consulta diaria hasta análisis avanzados. Tendrás un rol estratégico fortaleciendo soluciones basadas en datos que aceleran la toma de decisiones en toda la organización.

Entre tus funciones destacadas estarán:

  • Diseñar, implementar y optimizar pipelines de datos robustos que integren tanto sistemas sincrónicos como asincrónicos, apoyándote en herramientas de última generación, incluyendo Spark, DataFlow y otras tecnologías relevantes.
  • Transformar y preparar grandes volúmenes de datos para facilitar el acceso y análisis por diferentes equipos y procesos.
  • Realizar consultas exploratorias y desarrollar scripts eficientes para la manipulación y comprensión de la información disponible.
  • Decidir la arquitectura más adecuada para almacenar, organizar y vincular datos provenientes de diversas fuentes, asegurando su disponibilidad futura y escalabilidad.
  • Colaborar con equipos multidisciplinarios para asegurar la correcta integración y uso de los datos dentro de la empresa.

Perfil y experiencia requerida

Buscamos un profesional con pensamiento lógico y una sólida formación cuantitativa, idealmente en ingeniería, física, matemáticas o carreras afines que den un soporte sólido para el modelamiento y el manejo avanzado de datos.

Es fundamental contar con al menos tres años de experiencia programando en uno o más lenguajes, preferentemente Python, aunque no es excluyente. Deberás tener experiencia demostrable en infraestructura de datos, modelado y manejo de grandes volúmenes de información.

Además, deberás mostrar capacidad para diseñar e implementar pipelines de datos complejos y modelos dimensionales, integrando sistemas variados y utilizando tanto herramientas propias como externas. Se valora especialmente la habilidad para pensar y estructurar cómo se deben organizar y almacenar los datos para maximizar su utilidad.

Buscamos a alguien capaz de construir el rompecabezas completo: no solo trabajar con piezas ya existentes, sino también crear nuevas piezas y diseñar la forma exacta en que encajan para ofrecer soluciones óptimas.

Habilidades y conocimientos deseables

Se valorarán conocimientos adicionales en tecnologías como Apache Spark, Apache Beam, Google DataFlow u otras plataformas similares para procesamiento de datos en batch y streaming. También apreciamos experiencia en modelamiento dimensional avanzado y en la integración de sistemas tanto sincrónicos como asincrónicos.

Además, es deseable poseer habilidades interpersonales para colaborar estrechamente con equipos multidisciplinarios, capacidad para trabajar en entornos ágiles y orientados a la mejora continua, y un enfoque proactivo para resolver problemas complejos relacionados con la gestión de datos.

Beneficios

En Ceibo, promovemos la innovación, el aprendizaje continuo y la contribución a proyectos tecnológicos con impacto sostenible. Ofrecemos un ambiente laboral colaborativo, flexible y orientado a resultados, con oportunidad de crecimiento profesional dentro de una empresa comprometida con la transformación digital y la sustentabilidad.

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Ceibo pays or copays life insurance for employees.
Meals provided Ceibo provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Ceibo pays or copays health insurance for employees.
Dental insurance Ceibo pays or copays dental insurance for employees.
Computer provided Ceibo provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Ceibo gives you paid vacations over the legal minimum.
Beverages and snacks Ceibo offers beverages and snacks for free consumption.
Parental leave over legal Ceibo offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Producto, Analítica de Usuarios e Insights
  • BNamericas
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis

BNamericas es la plataforma de inteligencia de negocios líder en América Latina, con 29 años de trayectoria aportando información actualizada y de alto valor de sectores estratégicos de Infraestructura, Minería, Energía Eléctrica, Petróleo y Gas, TIC y Servicios Financieros. Nuestra plataforma ofrece noticias, actualización de proyectos, personas y compañías, facilitando que nuestros clientes tomen decisiones informadas y acertadas.
¿Eres una persona analítica, curiosa y detallista? ¿Te apasiona entender cómo los usuarios interactúan con productos digitales para transformar datos en decisiones estratégicas? Esta oportunidad laboral puede ser para ti.
Hoy buscamos a un/a analista de producto orientada/o a datos, que jugará un rol clave en el análisis del comportamiento de usuarios, el monitoreo del desempeño de la plataforma y la generación de insights estratégicos
que impulsen la evolución de nuestro producto digital.

Send CV through Get on Board.

Responsabilidades Clave

Análisis de comportamiento y uso

  • Monitorear y analizar patrones de uso, puntos de fricción y engagement.
  • Crear dashboards e informes utilizando Amplitude.
  • Compartir insights accionables con los equipos de producto, marketing y liderazgo.
  • Definir y mantener KPIs clave de uso, retención y satisfacción.

Implementación y monitoreo

  • Colaborar con el equipo de desarrollo para asegurar una correcta implementación del tracking.
  • Auditar planes de tracking y asegurar la calidad de los datos.

Soporte al desarrollo de producto

  • Apoyar la validación de hipótesis con datos reales.
  • Participar en discovery entregando insights que guíen la priorización de funcionalidades.

Medición de impacto

  • Evaluar el éxito de lanzamientos mediante KPIs y objetivos de producto.
  • Crear frameworks de medición de product-market fit y satisfacción de usuarios.

Contribución estratégica

  • Identificar oportunidades de mejoras, nuevas funcionalidades y productos.
  • Comunicar hallazgos de forma clara a equipos multidisciplinarios.

Requerimientos del cargo

  • +2 años de experiencia en roles similares (analítica de producto, inteligencia de negocios, data-driven roles).
  • Sólido manejo de herramientas de análisis, idealmente Amplitude.
  • Conocimiento de metodologías ágiles y procesos de desarrollo de producto.
  • Capacidad analítica, pensamiento crítico y excelentes habilidades de comunicación.
  • Conocimiento sobre tracking, eventos y estructuras de datos.
  • Dominio de inglés (oral y escrito).
  • Se valorará experiencia con Python, Pandas, Jupyter y SQL.

Condiciones

En BNamericas fomentamos un ambiente laboral inclusivo, diverso, creativo y altamente colaborativo.

Ofrecemos múltiples beneficios, tales como bono por referidos para la incorporación de nuevos talentos recomendados, salidas anticipadas en fechas especiales como fiestas patrias y Navidad, oportunidades de formación continua y desarrollo profesional, .

Te invitamos a ser parte de una empresa con propósito que promueve el desarrollo sostenible en la región.

Modalidad de trabajo con flexibilidad laboral: híbrido para residentes en Santiago y 100% remoto para el resto de Latinoamérica.

Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • Haystack News
  • Lima (In-office)
Python Data Analysis SQL NoSQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack feature at Google IO: https://www.youtube.com/watch?v=-YawUi6qPck

Apply exclusively at getonbrd.com.

Job functions

We are looking for an outstanding Data Scientist to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Data Science, Machine Learning, and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista BI
  • SONDA
  • Santiago (Hybrid)
Data Analysis SQL Business Intelligence Big Data

En SONDA, la Innovación es parte de nuestro ADN.
Miramos hacia el futuro focalizándonos en las últimas tendencias y noticias sobre innovación, tecnologías con impacto y sostenibilidad.
Conocemos los desafíos y demandas de la región y contamos con un amplio portafolio de soluciones de negocio especializadas en las principales industrias del mercado.

Vive la experiencia SONDA en nuestra unidad de negocio Digital Application Services.

Opportunity published on Get on Board.

· Desarrollar y brindar nuevas soluciones de inteligencia empresarial a través del análisis y medición de la calidad de la información utilizada por la empresa para la toma de decisiones, con el fin de maximizar su utilidad.

· Ser responsable de apoyar la recolección, verificación de calidad, compilación, análisis y promoción de interpretaciones correctas de datos.

· Apoyar en el desarrollo de soluciones mediante el uso de plataformas de Business Intelligence (self-service BI), preparación de cuadros de mando e informes para apoyo a la gestión, estructuración, análisis, carga, inclusión, exclusión, alteración y consulta de datos relacionales, multidimensionales y geográficos.

Requerimientos del cargo

· Título profesional o licenciatura es: Ingeniería Civil o Ejecución en Computación e Informática o carrera técnica o profesional afín al rol, con más de 3 años de experiencia en cargos similares.

· Más de 3 años de experiencia en el análisis, diseño e implantación de sistemas de soporte de decisiones (dashboard, scorecard, etc.)

· Más de 3 años de experiencia en el desarrollo de reportes estadísticos.

· Más de 3 años de experiencia en el análisis y gestión de requerimientos para resolver problemas en el ámbito del BI.

· Más de 3 años de experiencia en el desarrollo de proyectos de integración de datos para Data Warehouse o Data Lake.

· Más de 3 años de experiencia en el desarrollo de procesamientos sobre datos (procesamiento SQL).

Idealmente se espera que puedas tener alguna certificación o curso en alguno de estos tópicos:

· Magíster, Diplomado, Postgrado o curso de 40 horas o más atingente a Inteligencia de Negocio o Analítica de Datos.

· Certificaciones/Cursos de desarrollo de reportes y uso de herramientas de visualización.

· Certificaciones/Cursos de bases de datos o SQL.

· Certificaciones/Cursos en herramientas de Integración de datos (ETL).

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer (AWS Data Lakes)
  • Niuro
Python SQL Virtualization Big Data
Niuro is a leading global technology talent provider specializing in connecting elite tech teams with top-tier U.S.-based companies. Our mission is to simplify global talent acquisition and maximize project quality through innovative and efficient solutions. We empower autonomous, high-performance teams by handling all administrative aspects such as hiring, payments, and training, enabling our professionals to focus fully on delivering exceptional results. Within this context, we collaborate on impactful industrial data projects with a strong emphasis on innovation and technical excellence. Our teams contribute to challenging projects that leverage cutting-edge data engineering techniques, particularly in cloud-based environments, ensuring both professional growth and meaningful contributions to the client’s success.

Apply to this job from Get on Board.

Role and Responsibilities

As a Data Engineer specializing in AWS Data Lakes, you will play a pivotal role in architecting, building, and managing scalable and robust data lake solutions on the AWS cloud platform. Your primary responsibilities will include designing and implementing data ingestion pipelines, optimizing data transformation processes, and ensuring data quality and integrity to power analytics and business intelligence initiatives.
Key tasks include:
  • Designing and maintaining data lakes using AWS services such as S3, Glue, Athena, Lambda, and Step Functions.
  • Developing and optimizing data processing workflows with PySpark and Python to transform raw data into actionable datasets.
  • Writing efficient SQL queries for data extraction and manipulation.
  • Collaborating closely with U.S.-based cross-functional teams to understand requirements and deliver solutions that align with business objectives.
  • Monitoring, troubleshooting, and improving the performance and reliability of data platforms.
You will be part of a remote, agile, and collaborative environment where continuous improvement and innovation are encouraged.

Skills and Experience Required

We are looking for a motivated Data Engineer with solid experience building and managing data lakes on AWS. The ideal candidate will demonstrate proficiency with core AWS services including S3, Glue, Athena, Lambda, and Step Functions, and have strong programming skills in Python and SQL for processing and transforming data.
Essential qualifications include:
  • Hands-on experience implementing scalable data lake architectures on AWS.
  • Competence with PySpark for distributed data processing.
  • Strong Python programming skills with the ability to create clean, maintainable code.
  • Solid SQL skills for complex queries and data manipulation.
  • Effective communication skills in conversational English to collaborate with teams and stakeholders based in the United States.
Soft skills necessary for success include a proactive attitude, problem-solving mindset, strong attention to detail, and the ability to work independently within a remote work context.

Additional Skills and Technologies (Nice to Have)

While not mandatory, the following skills will enhance your fit for this role and our projects:
  • Experience with backend frameworks and libraries such as FastAPI, Pydantic, and Gunicorn.
  • Familiarity with AWS SDKs such as Boto3 for AWS service integration.
  • Knowledge of web technologies including Aestiva HTML/OS.
  • Containerization and DevOps skills, particularly using Docker.
  • Experience with continuous integration and deployment tools like TeamCity.
  • Version control expertise using GitHub or Gitea.

What We Offer

Joining Niuro means becoming part of an innovative, supportive, and high-performing global community focused on technological excellence. We offer a fully remote position allowing you to work from anywhere in the LATAM region, providing flexibility and work-life balance.
We are committed to your continuous professional growth through ongoing technical and soft skills training, leadership development programs, and opportunities to work on impactful and technically challenging industrial data projects.
Niuro also offers a strong administrative support system, so you can focus entirely on your work without distractions related to hiring, payments, or HR processes.
We maintain a long-term vision for our collaborations, with the possibility of transitioning to stable full-time employment after the initial contract, reflecting our dedication to building lasting relationships with our team members.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero Cloud
  • Zerviz Technologies
  • Santiago (In-office)
Linux Virtualization Amazon Web Services Azure

En ZerviZ somos una empresa innovadora especializada en consultoría y desarrollo de productos digitales enfocados en la experiencia del cliente (Customer Experience, CX) para toda América Latina. Desde 2017, hemos impulsado más de 150 proyectos en 16 países, apoyando a clientes en sectores diversos para optimizar procesos, mejorar la atención y servicio al cliente mediante desarrollos a medida y soluciones tecnológicas flexibles y escalables.

Nuestro equipo participa activamente en proyectos que involucran plataformas web, sistemas CRM, optimización de procesos back-office y la integración de nuevas funcionalidades en sistemas core. Con fuerte presencia en mercados como Estados Unidos, México, Colombia, Perú, Argentina y España, ofrecemos soluciones de alta calidad certificada, que combinan metodologías ágiles y prácticas de mejoramiento continuo, posicionándonos como referentes en innovación digital y transformación empresarial.

This job is published by getonbrd.com.

Responsabilidades Principales

  • Diseñar, planificar y ejecutar migraciones de sistemas y servicios a entornos cloud.
  • Configurar y administrar recursos en ambas plataformas, garantizando rendimiento, disponibilidad y seguridad.
  • Documentar arquitecturas, procesos y decisiones técnicas.
  • Proponer mejoras continuas en infraestructura cloud.
  • Diagnosticar y resolver problemas de infraestructura cloud.

Skills técnicos excluyentes

  • Experiencia comprobable en migraciones cloud (on-premise a Azure y/o AWS).
  • Conocimientos en Azure ( Azure AD, networking, storage, App Services).
  • Conocimientos sólidos en AWS (EC2, S3, IAM, RDS, Lambda, CloudFormation).
  • Manejo de herramientas de automatización e infraestructura como código (Terraform, Ansible, CloudFormation).
  • Experiencia con sistemas operativos Linux y Windows en entornos cloud.
  • Seguridad en la nube (gestión de accesos, políticas, compliance).

Soft Skills deseables

  • Buen trabajo en equipo, fomentando la colaboración y el apoyo mutuo.
  • Comunicación efectiva, tanto con compañeros como con líderes técnicos y de negocio.
  • Proactividad para levantar alertas, proponer mejoras o anticipar riesgos.
  • Adaptabilidad frente a cambios de contexto, prioridades y metodologías de trabajo.
  • Buena disposición para colaborar con otras áreas técnicas y no técnicas.

Condiciones

Ofrecemos un ambiente laboral colaborativo y enriquecedor, ideal para tu desarrollo profesional continuo.
Puedes disfrutar de flexibilidad laboral y la oportunidad de trabajar en proyectos internacionales, lo que te brindará una vasta experiencia en el ámbito digital.
En ZerviZ, fomentamos un ambiente diverso e inclusivo donde la creatividad y la innovación son fundamentales.
Apoyamos tu crecimiento profesional y confiamos en tu capacidad para marcar la diferencia en nuestros proyectos.
Dentro de nuestros beneficios contamos con:

  • Seguro complementario de salud
  • Afiliación a Caja Los Andes
  • Afiliación a Mundo Achs
  • Operativos preventivos de salud
  • Día de cumpleaños libre
  • Capacitación y formación continua
  • Becas de estudio
  • Aguinaldos de fiestas patrias y navidad

¡Si te apasiona la tecnología y deseas mejorar la experiencia del cliente, únete a nosotros!

Wellness program Zerviz Technologies offers or subsidies mental and/or physical health activities.
Relocation offered If you are moving in from another country, Zerviz Technologies helps you with your relocation.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Mobile phone provided Zerviz Technologies provides a mobile phone for work use.
Commuting stipend Zerviz Technologies offers a stipend to cover some commuting costs.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Zerviz Technologies offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Engineer Azure Salesforce
  • BC Tecnología
Python Git REST API SQL
En BC Tecnología somos una consultora líder en servicios de TI que brinda soluciones integrales en infraestructura, desarrollo de software y outsourcing para clientes de sectores como servicios financieros, seguros, retail y gobierno. Actualmente, estamos desarrollando un proyecto innovador enfocado en la creación y optimización de pipelines de datos en la nube, utilizando tecnologías de Azure y Salesforce. Buscamos integrar grandes volúmenes de datos para transformar la información en activos estratégicos a través de análisis avanzados y modelos de datos robustos, apoyando a áreas de BI y Data Science para mejorar la toma de decisiones del negocio.

Job opportunity published on getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos escalables y eficientes en Azure para la integración desde Salesforce, utilizando APIs REST y SOAP.
  • Gestionar la ingesta y almacenamiento de datos en Azure Data Lake Gen2, Azure SQL y Synapse Analytics para facilitar análisis avanzados y reporting.
  • Automatizar flujos de trabajo mediante Azure Data Factory (ADF), Logic Apps y Databricks asegurando la calidad y consistencia de los datos.
  • Implementar controles rigurosos de calidad, limpieza y transformación de datos según políticas corporativas de gobernanza y seguridad.
  • Colaborar de manera interdisciplinaria con equipos de Business Intelligence, Data Science y áreas de negocio para alinear los desarrollos con requerimientos funcionales.
  • Documentar detalladamente los procesos ETL/ELT y mantener actualizado el inventario de flujos y pipelines para facilitar la gestión y mantenimiento a futuro.

Requisitos y perfil del candidato

Buscamos un Data Engineer con al menos 3 años de experiencia en entornos cloud, preferentemente trabajando con Azure y Salesforce. El candidato ideal debe poseer experiencia práctica integrando datos desde Salesforce utilizando APIs REST, Bulk API y herramientas de Azure Data Factory.
Se requiere un conocimiento profundo en tecnologías clave de Azure como Azure Data Factory, Data Lake Gen2, Azure SQL y Synapse, así como experiencia en modelado de datos con esquemas en Estrella y Copo de Nieve.
Habilidades técnicas complementarias incluyen Python, PySpark, T-SQL y manejo avanzado de JSON/XML. Además, el candidato debe estar familiarizado con el uso de sistemas de control de versiones como Git y tener capacidad para trabajar en equipos multidisciplinarios bajo metodologías ágiles.
Valoramos competencias blandas como la proactividad, enfoque al detalle, capacidad analítica, buenas habilidades de comunicación y orientación al trabajo colaborativo.

Habilidades y certificaciones deseables

Es altamente valorado contar con certificaciones oficiales como Microsoft Azure DP-203, Power BI PL-300 y Scrum Master que respalden el conocimiento técnico y metodológico.
Contar con un nivel de inglés intermedio, tanto oral como escrito, es deseable para la comunicación con equipos globales y documentación técnica.
Experiencia previa en proyectos de integración de datos a gran escala y familiaridad con tecnologías complementarias como Logic Apps y Databricks serán consideradas un plus.

¿Qué ofrecemos?

En BC Tecnología promovemos un entorno colaborativo y basado en el aprendizaje continuo, donde valoramos el compromiso y el crecimiento profesional.
Nuestra modalidad de trabajo es 100% remoto, abierta a profesionales ubicados en toda Latinoamérica, lo que permite flexibilidad y balance personal.
Formarás parte de proyectos innovadores con clientes de alto nivel en diferentes industrias, en un clima laboral inclusivo, respetuoso y orientado al desarrollo tanto técnico como profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3500 Tiempo completo
Data Engineer Azure (Salesforce)
  • BC Tecnología
Python Git JSON TSQL
En BC Tecnología, una consultora de TI con 6 años de experiencia, nos especializamos en proveer soluciones tecnológicas a clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en la formación de equipos ágiles para áreas de infraestructura, desarrollo de software y unidades de negocio, gestionando proyectos, outsourcing y soporte IT. Actualmente, buscamos incorporar un Data Engineer con experiencia en Azure y Salesforce para un proyecto 100% remoto dirigido a candidatos de LATAM, buscando potenciar nuestro equipo con talento especializado en ingeniería de datos en la nube.

Apply to this job opportunity at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables en Azure, extrayendo información desde Salesforce utilizando API REST y SOAP.
  • Integrar y consolidar datos en Azure Data Lake Gen2, Azure SQL Database y Synapse Analytics para asegurar la disponibilidad y fiabilidad de la información.
  • Automatizar flujos ETL utilizando herramientas como Azure Data Factory (ADF), Logic Apps y Databricks para optimizar procesos y minimizar errores manuales.
  • Implementar controles estrictos de calidad y limpieza de datos para garantizar la integridad y precisión en todos los conjuntos de datos procesados.
  • Colaborar estrechamente con los equipos de Business Intelligence, Data Science y áreas de negocio para entender requerimientos y entregar soluciones alineadas a objetivos estratégicos.
  • Documentar detalladamente los procesos ETL y asegurar el cumplimiento de políticas de gobernanza de datos, seguridad y mejores prácticas en la nube.

Requisitos y habilidades necesarias

Buscamos un Data Engineer con al menos 3 años de experiencia comprobable trabajando con tecnologías cloud, especialmente en plataformas Microsoft Azure orientadas a la integración de datos desde Salesforce.
Es fundamental que el candidato tenga experiencia real y práctica en la integración de datos mediante APIs de Salesforce (REST, Bulk API) y el uso de Azure Data Factory para la orquestación de pipelines.
Además, se requieren conocimientos sólidos en:
  • Azure Data Factory para construir, automatizar y monitorear pipelines de datos.
  • Azure Data Lake Gen2 para el almacenamiento escalable y seguro de grandes volúmenes de datos.
  • Azure SQL Database y Synapse Analytics para procesamiento y análisis avanzado.
  • Power BI para visualización e interpretación de datos.
  • Lenguajes de programación y scripting como Python, PySpark y T-SQL para manipulación y transformación de datos.
  • Control de versiones con Git.
  • Modelado de datos usando esquemas estrella y copo de nieve, optimizando bases de datos y consultas.
  • Manejo avanzado de formatos de datos complejos como JSON y XML.
El candidato debe ser capaz de trabajar de forma autónoma, tener habilidades comunicativas para colaborar con múltiples equipos y orientarse a resultados con atención al detalle.

Habilidades y certificaciones deseables

  • Certificación Microsoft Azure Data Engineer (DP-203), demostrando dominio avanzado en servicios de datos de Azure.
  • Certificación Power BI Data Analyst (PL-300) para mejorar la capacidad de visualización y análisis de datos.
  • Certificación Scrum Master, lo que contribuiría a una integración más efectiva dentro de equipos ágiles y proyectos iterativos.
  • Nivel de inglés intermedio, tanto oral como escrito, para interactuar en equipos multiculturales y documentación técnica en inglés.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Ofrecemos modalidad 100% remota con apertura a talentos de toda Latinoamérica, garantizando flexibilidad y autonomía en la gestión del tiempo.
Participarás en proyectos innovadores y desafiantes con clientes relevantes en sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional continuo.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2500 Tiempo completo
Consultor Data Analyst Semisenior/Senior
  • Lisit
  • Santiago (Hybrid)
Data Analysis SQL Artificial Intelligence Data Visualization

En Lisit, somos una empresa dedicada a crear, desarrollar e implementar soluciones de software que proporcionan herramientas de automatización y optimización. Nuestro enfoque se centra en acompañar a nuestros clientes a lo largo de sus procesos de transformación digital, combinando innovación, eficiencia operativa y consultoría especializada. Formarías parte de un equipo apasionado por enfrentar desafíos técnicos complejos mediante el uso de tecnologías avanzadas para entregar valor tangible y sostenible a nuestros clientes.

Job source: getonbrd.com.

Responsabilidades del puesto

Como Consultor Data Analyst SemiSenior o Senior, serás responsable de analizar, modelar y transformar datos para extraer insights valiosos que impulsen la toma de decisiones estratégicas. Trabajarás en colaboración con equipos multidisciplinarios para diseñar soluciones basadas en datos que mejoren los procesos internos y la experiencia del cliente.

  • Realizar modelados de datos robustos y eficientes.
  • Desarrollar consultas avanzadas y optimizar bases de datos utilizando SQL.
  • Interpretar y tratar grandes volúmenes de datos para proporcionar análisis claros y accionables.
  • Preparar reportes y visualizaciones que faciliten la comprensión del negocio.
  • Colaborar con áreas técnicas y de negocio para entender requerimientos y traducirlos en soluciones analíticas.
  • Garantizar la calidad y consistencia de los datos procesados.

Requisitos del candidato

Buscamos un profesional con más de 3 años de experiencia en modelado y tratamiento de datos, que posea un conocimiento avanzado en lenguaje SQL y manejo de bases de datos. Es fundamental contar con certificación PL-300, la cual es excluyente para esta posición, dado que asegura competencia en análisis y visualización de datos con tecnologías Microsoft. Además, es deseable tener la certificación DP-600, que indica experiencia en desarrollo de soluciones con inteligencia artificial y bases de datos en Microsoft Azure.

Además de las habilidades técnicas, valoramos cualidades como pensamiento analítico, capacidad para resolver problemas complejos, atención al detalle, y facilidad para comunicar hallazgos a distintos niveles dentro de la organización.

Habilidades y certificaciones valoradas

La certificación DP-600 será altamente valorada, ya que implica conocimientos avanzados en soluciones basadas en inteligencia artificial y bases de datos dentro del ecosistema Microsoft Azure. También se considera un plus la experiencia previa en proyectos de transformación digital, manejo de herramientas de visualización complementarias, y capacidades de trabajo en equipo en entornos ágiles.

Beneficios de trabajar con nosotros

En Lisit promovemos un ambiente laboral dinámico, basado en la innovación constante y el crecimiento profesional. Formarás parte de un equipo que acompaña a clientes en procesos de transformación digital, aplicando las mejores prácticas y tecnologías actuales.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2500 Tiempo completo
Especialista BI – Ssas + Power BI ( Latam)
  • I2B Technologies
Business Intelligence ETL Power BI Data Visualization

I2B Technologies es una empresa reconocida por su acompañamiento permanente a clientes para lograr un salto cualitativo en sus negocios, enfocándose en proyectos de alto impacto que mejoran la calidad de vida de los usuarios. La empresa posee una trayectoria consolidada en proyectos de transformación digital exitosos, basados en consultoría, desarrollo de software, evolución y data science. Como parte del área de Inteligencia de Negocios, participarás en proyectos estratégicos que ofrecen soluciones analíticas de alto valor para mejorar la experiencia y resultados de las empresas con sus usuarios.

This job offer is on Get on Board.

Responsabilidades del rol

  • Modelado de cubos en SQL Server Analysis Services (SSAS), tanto tabulares como multidimensionales.
  • Desarrollo de dashboards ejecutivos en Power BI, incluyendo visualizaciones complejas y avanzadas.
  • Gobierno y administración de reportes, incluyendo performance y seguridad.
  • Apoyo en la arquitectura de soluciones analíticas y procesos relacionados.

Requisitos técnicos

  • Experiencia sólida en diseño y modelado de cubos en SSAS.
  • Conocimiento avanzado en Power BI, incluyendo DAX avanzado, Power Query y creación de visualizaciones complejas.
  • Conocimientos en Data Warehouse y flujos ETL para manejo integrado de datos.
  • Buen manejo y comprensión de KPIs corporativos para la elaboración de reportes relevantes.
  • Se valoran habilidades analíticas, orientación al detalle y capacidad de trabajo en equipo remoto.

Competencias deseables

  • Experiencia previa en proyectos remotos para clientes de Latinoamérica.
  • Conocimientos en otras herramientas de BI o plataformas de datos.
  • Capacidad proactiva para proponer mejoras en procesos analíticos.
  • Habilidades de comunicación efectiva para trabajo colaborativo.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Library Access to a library of physical books.
Wellness program I2B Technologies offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Digital library Access to digital books or subscriptions.
Computer provided I2B Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

Apply directly from Get on Board.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Financial Planning & Analytics Manager
  • Wherex
  • Santiago (Hybrid)
Analytics Data Analysis Business Intelligence Planning

WherEX es una scale up tecnológica de comercio industrial con operaciones en México, Colombia, Chile y Perú 🚩

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!
Puedes enterarte un poco más de nosotros aquí

Official source: getonbrd.com.

Job functions

En Wherex estamos buscando nuestro/a próximo/a Financial Planning & Analytics Manager

¿Te apasiona el análisis financiero y la planificación estratégica para impulsar el crecimiento de la empresa? ¡Este desafío es para ti!

¿Qué harás?

- Definición y gobernanza de datos financieros: Ser referente en la compañía en cuanto a estructura, consumo y calidad de los datos financieros, asegurando que las áreas utilicen información alineada con las mejores prácticas y estándares internos.
- Liderazgo del equipo de FPA: Gestionar y desarrollar al equipo de Financial Planning & Analytics, asegurando su alineación con los objetivos estratégicos.
- Planificación y control financiero: Apoyar en la elaboración de presupuestos y análisis financiero para optimizar la rentabilidad del negocio.
- Definición y monitoreo de KPIs: Diseñar e implementar KPIs por área, facilitando la toma de decisiones basada en datos.
- Optimización de procesos: Liderar iniciativas de mejora continua y automatización en la gestión financiera y operativa.
- Reportabilidad y análisis estratégico: Elaborar informes financieros clave, generar presentaciones para el directorio y asesorar a otras áreas en el uso adecuado de la data financiera.

¿Por qué trabajar en Wherex?

- Impacto real: Contribuye a la toma de decisiones estratégicas y al crecimiento financiero de la empresa.
- Entorno dinámico: Trabaja con un equipo de alto impacto en un ambiente colaborativo.
- Oportunidad de crecimiento: Desafíos constantes para desarrollar tus habilidades analíticas y estratégicas.

Beneficios:

- 25 días de vacaciones al año.
- Seguro Complementario (Médico/ Dental/ Vida).
- Presupuesto para organizar actividades deportivas con tu equipo de trabajo
- Presupuesto para organizar actividades de team bonding con tu equipo de trabajo

Qualifications and requirements

Lo que buscamos
- Profesional con estudios en Ingeniería Civil, idealmente con especialización en Data Science, Gestión o Business Intelligence.
- 2-3 años de experiencia en planificación financiera, análisis de datos y generación de reportes estratégicos.
- Capacidad analítica, orientación a resultados y habilidades para trabajar en equipos multidisciplinarios.

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎 llevando a la oficina y al equipo tu soporte un día a la semana

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2700 Tiempo completo
Semi Senior Data Engineer
  • 23people
Java Python SQL ETL
Equifax Chile es la filial local de Equifax Inc., una compañía global de datos, analítica y tecnología con sede en Atlanta, EE. UU., y presencia en 24 países. Desde 1979, Equifax Chile ha sido un referente en soluciones de información comercial, ofreciendo servicios como evaluación de riesgo crediticio, informes de crédito, monitoreo de identidad y análisis de datos para más de 14,000 empresas en sectores como el financiero, comercial, retail y servicios. ​Nuestra visión es empoderar a personas y organizaciones para tomar decisiones informadas, transformando el uso de la información con transparencia y seguridad. Uno de nuestros principales desafíos es liderar la transformación digital a través de nuestro Centro de Desarrollo en Santiago (SDC), que concentra el 60% de los desarrollos digitales de Equifax a nivel mundial.
Fomentamos una cultura de innovación, colaboración y excelencia técnica, donde el talento local impulsa soluciones tecnológicas de alto impacto.

This posting is original from the Get on Board platform.

Funciones del cargo

¿Qué harás en tu día a día?
  • Se realizará automatización para transformación y limpieza de datos proveniente de varias fuentes (excel, xml, csv).
  • Los archivos deben ser cargados y revisados en GCP, trabajará con pipeline de datos que alimentan Bigdata a través de script.

Requerimientos del cargo

Skills
  • Python/Java
  • Usuario de bases de datos:
  • Experiencia en procesos de Extracción, Transformación y Carga de datos (ETL).
  • Conocimientos en SQL, procedimientos almacenados y triggers.
  • Experiencia en procesos de manejo de datos:
  • Procesamiento en lotes
  • Procesamientos distribuidos.
Contrato indefinido desde el inicio con 23people
Modalidad: Home Office. Debes buscar el computador en primera instancia
Experiencia: Desde 2 años en adelante
Horario: Lunes a Viernes de 9:00 a 18:00 hrs

Deseables

  • Diseño, creación y manejo de ETL:
    • On Prem: Pentaho, Control-M, Nifi
    • Cloud: Airflow, Cloud Composer, Glue, Lambda
  • Conocimientos en las tecnologías:
    • Spark
    • DataProc / DataFlow
  • Conocimientos básicos de estadísticas.
  • Conocimientos básicos de machine learning y deep learning.
  • Conocimiento sobre el manejo de datos:
    • Conocimiento sobre los conceptos de ambientes de datos.
    • Conocimiento sobre los conceptos de calidad de datos.
    • Conocimiento de modelado de datos.
    • Conocimiento de modelado de procesos y de flujos de datos.

Beneficios

Algunos de nuestros beneficios
  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y Navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Health coverage Equifax pays or copays health insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
Java Python SQL NoSQL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Engineer Ssr para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Applications: getonbrd.com.

Job functions

Estamos en búsqueda de un/a Data Engineer con experiencia y proactividad para sumarse a nuestro equipo en modalidad híbrida desde Santiago de Chile. Buscamos una persona con conocimientos sólidos en procesos de datos, cloud computing (especialmente GCP), y procesamiento distribuido.

Responsabilidades Principales

  • Diseñar y construir pipelines de datos robustos para procesos de ingesta, transformación y carga (ETL/ELT).
  • Aplicar buenas prácticas en el manejo de datos: seguridad, gobernanza y cumplimiento.
  • Trabajar con sistemas de procesamiento distribuido para manejar grandes volúmenes de datos.
  • Colaborar con equipos interdisciplinarios para impulsar decisiones basadas en datos.
  • Implementar soluciones escalables y eficientes utilizando herramientas de Google Cloud Platform (GCP).

Qualifications and requirements

  • Experiencia en creación de pipelines de datos y procesos de ETL.
  • Conocimientos sólidos en buenas prácticas de manejo de datos (seguridad, gobernanza, escalabilidad).
  • Experiencia en procesamiento distribuido.
  • Dominio de Python (Java es deseable).
  • Conocimientos en bases de datos SQL y NoSQL, especialmente MongoDB y BigQuery.

Experiencia con herramientas de GCP

  • Pub/Sub
  • Dataflow
  • Dataproc
  • Dataprep
  • Cloud Functions
  • BigQuery
  • Composer
  • Cloud Storage

Desirable skills

Experiencia en arquitectura de datos o entornos DevOps aplicados a datos.

Familiaridad con prácticas de CI/CD en flujos de datos.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
Java Python Agile SQL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DATA ENGINEER para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

© Get on Board. All rights reserved.

Funciones del cargo

  • Diseñar, desarrollar y mantener procesos de ingesta, transformación y carga (ETL/ELT) de datos para asegurar la disponibilidad y calidad de la información.
  • Crear y administrar pipelines de datos eficientes y escalables que soporten el flujo continuo de datos desde múltiples fuentes hacia los sistemas de almacenamiento y análisis.
  • Implementar y promover buenas prácticas en el manejo de datos, incluyendo seguridad, gobernanza, control de acceso y cumplimiento de normativas.
  • Desarrollar soluciones de procesamiento distribuido para manejar grandes volúmenes de datos en entornos cloud.
  • Gestionar y optimizar los servicios de Google Cloud Platform (GCP) relacionados con la ingeniería de datos, como Pub/Sub, Dataflow, Dataproc, Dataprep, Cloud Functions, BigQuery, Composer y Cloud Storage.
  • Colaborar con equipos multidisciplinarios para entender requerimientos de datos y traducirlos en soluciones técnicas robustas.
  • Realizar monitoreo, mantenimiento y mejora continua de los pipelines y sistemas de datos para garantizar alta disponibilidad y rendimiento.
  • Documentar procesos, arquitecturas y estándares técnicos relacionados con la ingeniería de datos.

Requerimientos del cargo

  • Experiencia comprobable en diseño y desarrollo de procesos ETL/ELT y pipelines de datos.
  • Sólidos conocimientos en Google Cloud Platform (GCP), especialmente en los servicios:
    • Pub/Sub
    • Dataflow
    • Dataproc
    • Dataprep
    • Cloud Functions
    • BigQuery
    • Composer
    • Cloud Storage
  • Dominio en programación con Python y Java para desarrollo de scripts, automatización y procesamiento de datos.
  • Conocimientos en bases de datos SQL y NoSQL, con experiencia en MongoDB y BigQuery.
  • Experiencia en procesamiento distribuido y manejo de grandes volúmenes de datos.
  • Conocimiento en buenas prácticas de seguridad y gobernanza de datos.
  • Capacidad para trabajar en equipos ágiles y multidisciplinarios.
  • Habilidades de comunicación efectiva para presentar soluciones técnicas y colaborar con otras áreas

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 18 MESES con posibilidad de extensión

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Tienda Pago
  • Ciudad de México (Hybrid)
Python SQL Big Data Back-end

✨ ¡En Tienda Pago, estamos revolucionando el mundo de las finanzas en Latinoamérica! ✨

Somos una fintech multicultural 🌎 con operación en México y Perú y colaboradores en Colombia, Argentina, República Dominicana ¡y más países! 🚀 Nuestra misión es única: impulsar a las tienditas y bodegas de barrio a crecer💪. ¿Cómo lo hacemos? A través de una plataforma digital innovadora que les da acceso a créditos para que puedan surtirse mejor y vender más 🛍️. Ofrecemos préstamos personales, crédito de inventario y recargas de celular, ¡todo con la última tecnología! 📲

En Tienda Pago, creemos en la inclusión financiera a través de la innovación💡. Llevamos + de 10 años haciendo la diferencia en la base de la pirámide económica, brindando oportunidades a quienes más lo necesitan💖.

¡Seguimos creciendo! Estamos búsqueda de un Data Engineer en CDMX para incorporar en nuestro equipo de Tech🤝

Apply directly from Get on Board.

¿Cuál es el objetivo principal de la posición? 🧑‍💻

Buscar un enfoque estratégico, liderar proyectos de medios a complejos, establecer las mejores prácticas, ejecución de tareas complejas. El candidato ideal es un profesional que trabaje indispensablemente con autonomía, lidere proyectos medios a complejos, establezca las mejores prácticas y actúe como mentor para los miembros más junior del equipo. Busque un enfoque estratégico, responsable de la modelación de datos y la toma de decisiones que afectarán la escalabilidad y eficiencia a largo plazo.

¿Cuáles serán tus principales responsabilidades? 🤔

  • Diseño y construcción de arquitecturas de modelos escalables y robustas.
  • Experiencia para implementación de diferentes técnicas de modelado como datawarehouse, data lakes y data mesh, utilizando metodologías ágiles.
  • Habilidad para diseñar, desarrollo y mantenimiento de los procesos de ingesta e integración de datos, modelos de análisis y tableros de control en esto deberá incluir optimizar pipelines complejos reduciendo costos y mejorando eficiencia.
  • Desarrollar set de datos que sean incluidos en procesos de minería y modelado de datos para datos estructurados y no estructurados.
  • Habilidad para entender los objetivos del negocio y traducirlos en una estrategia de datos a corto, mediano y largo plazo.
  • Realizar flujo completo para un proyecto de manera autónoma: análisis, diseño y bajar la idea para que él/ella o alguien del equipo lo pueda desarrollar, seguimiento hasta después de la entrega.
  • Autonomía para el manejo e interacción con las áreas de negocio.
  • Tener autoridad para tomar decisiones técnicas y que pueda presentar los resultados de forma clara orientados a los diferentes Stakeholders.
  • Detectar, diseñar e implementar nuevos atributos, estructuras, métricas o indicadores de acuerdo con las políticas de calidad, seguridad y gobernanza de Datos de Tienda Pago.
  • Capacidad para guiar a otros ingenieros, revisar el código y fomentar crecimiento profesional

¿Qué requerimos de ti para hacer un buen match? 💘

  • Mínimo 4 años de experiencia en ingeniería de datos.
  • Manejo de SQL Avanzado.
  • Lógica de programación, idealmente en Python, pero podemos considerar profesionales en otros lenguajes.
  • Implementación de colas de mensajes y servicios de mensajería y streaming.
  • Integración de datos (Data Lake, Data Warehouse, SQL).
  • Modelado de datos.
  • Abstracción y conceptualización de ideas.
  • Relación de patrones y piezas faltantes.
  • Gobernanza de datos y seguridad.
  • Experiencia en automatización de infraestructura.
  • Disponibilidad para trabajar full time - híbrido. 90% remoto; se pide ir a la oficina cerca de 2 veces al mes. Estamos ubicados en Calle Buffon, No. 46, Piso 9, Colonia Anzures, Miguel Hidalgo.CDMX, CP. 11590.

Deseables (NO son obligatorios, solo son un plus)

  • Plataforma Azure, Integration Services, DBT, DAX, Power BI (de intermedio a avanzado) .

Algunos de Nuestros Beneficios en México 🤩

  1. Aguinaldo superior a la ley.
  2. Prima Vacacional 100%
  3. Vacaciones otorgadas de acuerdo a ley, partiendo de 12 días hábiles durante el primer año e incrementando progresivamente por cada año cumplido.
  4. Días libres, asignación de 08 días libres Tienda Pago durante el primer año y luego se reajusta proporcionalmente a las vacaciones de acuerdo a la política dias libres Tienda Pago.
  5. Día libre por tu cumpleaños a elección (mismo día que cumples años o cualquier día del mes que estás de cumpleaños).
  6. Días festivos no oficiales.
  7. Seguro de Gastos Médicos Mayores.
  8. Dentegra (Beneficio Adicional del Seguro de Gastos Médicos Mayores).
  9. Seguro de Vida.
  10. Si te gusta constantemente seguir aprendiendo y perfeccionando tus conocimientos, tenemos una plataforma padrísima llamada Ubits😏.

¡Conversemos y entérate de los otros beneficios!🥳

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Tienda Pago pays or copays health insurance for employees.
Computer provided Tienda Pago provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Tienda Pago gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $5000 - 7000 Tiempo completo
Senior Cdp Manager / Operator
  • Zaelot
Python Analytics SQL Data governance

Zaelot is a fast-growing technology company specialized in building scalable solutions for enterprise clients worldwide. With a team of over 90 professionals spread across 9 countries, Zaelot cultivates a culture based on trust, reliability, and collaboration to deliver innovative and effective technology products. The project focus for this role is managing Customer Data Platforms (CDPs), which are critical for enabling clients to unify, govern, and leverage their customer data efficiently. Our CDP team works closely with product, engineering, and analytics stakeholders to ensure data quality and operational excellence, driving better business outcomes through optimized customer data flows and identity resolution.

Opportunity published on Get on Board.

Key Responsibilities

  • Lead the end-to-end configuration, deployment, and ongoing management of Customer Data Platforms such as Segment, Hightouch, Rudderstack, or similar tools across diverse client environments.
  • Own the creation and maintenance of tracking plans, enforce data schemas strictly, and manage customer identity resolution and audience trait development to deliver accurate and actionable customer insights.
  • Design, build, and optimize reverse ETL (Extract, Transform, Load) pipelines and destination syncs to ensure seamless data movement between CDPs and downstream systems.
  • Implement and maintain best practices around naming conventions, user roles administration, permissions, and rigorous data quality assurance (QA) processes to uphold platform integrity.
  • Provide operational enablement through detailed documentation, training, and support aimed at both internal teams and client users to maximize platform adoption and efficiency.
  • Continuously monitor platform health metrics, proactively identifying and resolving operational issues in collaboration with engineering and support teams.

Role Requirements

We are seeking an experienced Senior CDP Manager with a strong technical background and hands-on expertise in managing customer data platforms. The ideal candidate will have between 3 and 5 years of practical experience working with CDP tools such as Segment, Hightouch, Rudderstack, or equivalents, exhibiting deep knowledge of data flows, identity resolution, and audience management techniques.

The role demands a strong understanding of event-based data architecture and familiarity with product analytics platforms like Amplitude or Mixpanel to ensure effective integration and utilization of data insights. Attention to detail is critical, especially regarding documentation accuracy, configuration hygiene, and enforcing data governance standards.

This position requires excellent communication skills to effectively collaborate with both technical and non-technical stakeholders, facilitating clear understanding and alignment on CDP-related initiatives and operational support.

Preferred Qualifications

It is advantageous to have experience in marketing technology stacks beyond CDPs, such as advanced analytics, campaign management platforms, or CRM tools. Familiarity with scripting or programming languages (e.g., SQL, Python) to build custom data pipelines or automate workflows is desirable. Prior exposure to enterprise data governance policies or compliance regulations will add value to the role.

Strong problem-solving abilities, proactive mindset, and a drive for continuous learning in the rapidly evolving CDP and data ecosystem are highly appreciated.

What We Offer

  • 20 days of paid vacation after one year to support a healthy work-life balance.
  • Incentive programs including referral bonuses and finder's fees for successful candidate recommendations.
  • Robust continuous learning opportunities with training and certification programs.
  • Work-from-home support to ensure a comfortable and productive environment.
  • English language classes and fitness programs promoting professional and personal growth.
  • Profit sharing and coaching sessions fostering collective success and development.

At Zaelot, we foster a supportive and innovative culture where your skills and ambitions are valued. Join our diverse team dedicated to excellence and continuous improvement, and contribute to impactful enterprise solutions.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Operaciones Medios de Pago
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de ANALISTA DE OPERACIONES - MEDIOS DE PAGO para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Official source: getonbrd.com.

Funciones del cargo

  1. Desarrollo de Paneles:
    • Crear y mantener paneles interactivos en Power BI y Looker Studio para la visualización de datos.
    • Asegurar que los paneles reflejen métricas clave y sean accesibles para los usuarios finales.
  2. Explotación de Datos:
    • Realizar la extracción y transformación de datos desde diversas fuentes.
    • Implementar procesos de limpieza y validación de datos.
  3. Análisis de Datos:
    • Analizar grandes volúmenes de datos para identificar tendencias, patrones y oportunidades de mejora.
    • Generar informes analíticos que apoyen la toma de decisiones estratégicas.
  4. Extracción y Análisis Multiplataforma:
    • Integrar datos de diferentes plataformas y sistemas, asegurando una visión holística del rendimiento.
    • Colaborar con equipos de IT para optimizar la infraestructura de datos.
  5. Colaboración Interdepartamental:
    • Trabajar de manera colaborativa con otros departamentos para entender sus necesidades de datos y proporcionar soluciones efectivas.
    • Participar en reuniones de equipo para discutir resultados y proyecciones.
  6. Documentación:
    • Mantener documentación clara y concisa de procesos, análisis y hallazgos.
    • Presentar resultados de manera efectiva a diferentes niveles de la organización.

Requerimientos del cargo

Habilidades/Conocimientos Obligatorios

  • Herramientas y Tecnologías:
    • Power BI
    • GCP (Google Cloud Platform)
    • Looker Studio
    • SQL
    • Python
  • Educación:
    • Título universitario en áreas relacionadas (Ingeniería, Estadística, Ciencias de la Computación, etc.).
  • Experiencia:
    • Experiencia previa en análisis de datos o roles similares (preferentemente en el sector de medios de pago).
  • Habilidades Técnicas:
    • Dominio de SQL para la manipulación y consulta de bases de datos.
    • Conocimiento práctico de Python para análisis de datos y automatización de procesos.
    • Experiencia en el uso de herramientas de visualización (Power BI, Looker Studio).
  • Habilidades Blandas:
    • Excelentes habilidades de comunicación y presentación.
    • Capacidad para trabajar en equipo y colaborar con diferentes áreas.
    • Pensamiento analítico y atención al detalle.

POSTULAR VÍA WEB Ver trabajo
Gross salary $6500 - 7500 Tiempo completo
Data Engineer / Data Architect
  • Zaelot
Python SQL Web server Big Data
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

Apply directly on the original site at Get on Board.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Digital Analytics y CRO
  • 2BRAINS
  • Santiago (Hybrid)
Data Analysis A/B Testing Conversion Rate Optimization Multivariate Testing

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Applications: getonbrd.com.

El perfil Digital Analytics y CRO de 2Brains

Perfil con experiencia en estrategias de optimización de conversión (CRO), orientado a mejorar el rendimiento de la web y app a través de metodologías de experimentación y análisis de datos. Con una fuerte base técnica y estratégica para liderar iniciativas de crecimiento digital, combinando capacidades analíticas con habilidades de comunicación efectiva.

¿Qué funciones deberá realizar el/la Digital Analyst o CRO?

  • Planificar, diseñar y ejecutar experimentos de optimización de conversión (A/B tests, multivariantes y pruebas incrementales).
  • Monitorizar y analizar el comportamiento de usuarios en web y app para identificar puntos de fricción y oportunidades de mejora.
  • Configurar y gestionar campañas de personalización y tests en Dynamic Yield.
  • Definir, construir y mantener funnels y reportes avanzados en Google Analytics 4.
  • Traducir los datos experimentales en insights accionables y recomendaciones de mejora.
  • Presentar resultados, insights y propuestas de optimización a equipos técnicos, de marketing y demás stakeholders.
  • Colaborar estrechamente con producto, desarrollo y marketing para implementar y validar cambios de manera continua.

¿Qué conocimientos buscamos en el/la Digital Analytics y CRO?

  • Profunda experiencia en estrategias de optimización de conversión (CRO) y análisis de datos.
  • Dominio de metodologías de experimentación: diseño, ejecución y análisis de A/B testing, pruebas multivariantes e incrementales.
  • Manejo avanzado de herramientas de analytics para web y apps:
    • Dynamic Yield (configuración y gestión de campañas de personalización/A/B tests).
    • Google Analytics 4 (lectura avanzada de datos, construcción de funnels y elaboración de reportes).
  • Capacidad para identificar y validar hipótesis de conversión a través de análisis de comportamiento de usuario.
  • Conocimientos básicos de estadística aplicada a la experimentación digital.
  • Habilidades de comunicación interpersonal y presentación de datos, con enfoque colaborativo y orientación a objetivos.

¿Qué competencias buscamos en el/la Digital Analytics y CRO?

  • Adaptación y flexibilidad
  • Colaboración y trabajo en equipo
  • Compromiso
  • Responsabilidad
  • Tolerancia a la presión

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Día libre para tu cumpleaños.
  • 4 semanas de vacaciones.
  • Trabajo híbrido (algunos días puedes trabajar desde casa)
  • Asignación de computadora para tu trabajo.
  • Código de vestimenta informal.
  • Espacio para charlas internas.
  • Cursos con certificación.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Docente Base de Datos Sede Viña del Mar
  • Duoc UC
  • Viña del Mar (In-office)
SQL Design Thinking PL/SQL Education
Duoc UC, institución de educación superior técnico profesional autónoma y católica con más de 50 años de historia y máxima acreditación CNA, busca fortalecer su escuela de Informática y Telecomunicaciones en la sede Viña del Mar. Este proyecto se enfoca en brindar una enseñanza de calidad en el área de tecnologías de la información, especialmente en bases de datos, para formar profesionales competentes que respondan a las exigencias actuales del mercado laboral.

This posting is original from the Get on Board platform.

Funciones Principales

Duoc UC Sede Viña del Mar, Escuela de Informática y Telecomunicaciones requiere contratar docentes para la asignatura de Base de Datos Aplicada I, Taller de Base de Datos con disponibilidad en jornada diurna, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Perfil y Requisitos

Es requisito contar con:

  • Formación: Ingeniero(a) en Informática, Ingeniero(a) Ejecución Informática o afín.
  • Experiencia: 3 años de experiencia en el desarrollo de proyectos de software implementados en base de datos relacionales. Dominio de SQL y PL/SQL en forma avanzada
  • Disponibilidad: Jornada Diurna / Lunes de 9:31hrs a 13:50hrs, Martes de 10:11hrs a 15:20hrs, Miércoles de 9:31hrs a 10:50hrs, Viernes de 9:31hrs a 13:50hrs.
  • Otros requisitos: Deseable que cuente con certificación Oracle Database SQL Certified Associate en la versión de Base de Datos. Certificación en Design Thinking (deseable).

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Databricks)
  • Improving South America
Python Git Data Analysis SQL

Somos Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply to this job at getonbrd.com.

Funciones del cargo

Actualmente estamos en la búsqueda de una persona proactiva y analítica para ocupar el puesto de Data Engineer Senior con experiencia sólida en SQL, Python y Databricks, orientado al diseño, construcción y mantenimiento de pipelines de datos escalables que respalden la toma de decisiones del negocio.

La persona seleccionada colaborará estrechamente con equipos de ingeniería, analítica y áreas de negocio para garantizar la disponibilidad, calidad e integridad de los datos:

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT robustos y reutilizables utilizando Databricks sobre Azure.
  • Procesar y transformar grandes volúmenes de datos en entornos distribuidos.
  • Implementar soluciones de datos escalables dentro del ecosistema Azure (ej. Azure Data Factory, Azure Data Lake, Azure SQL, Synapse).
  • Aplicar buenas prácticas de modelado de datos y arquitectura analítica.
  • Colaborar con equipos técnicos y de negocio para identificar requerimientos y traducirlos en soluciones técnicas.
  • Mantener código limpio y versionado con Git.

Requerimientos principales del cargo

  • Nivel de inglés intermedio/ avanzado para la comunicación diaria con equipos globales.
  • Experiencia 5+ años (comprobada) en ingeniería o análisis de datos con SQL y Python.
  • Dominio experto en SQL para manipulación, transformación y optimización de rendimiento.
  • Experiencia práctica desarrollando pipelines de datos en Databricks.
  • Conocimientos avanzados en Python, aplicados a procesamiento de datos.
  • Uso fluido de Pandas y NumPy.
  • Experiencia diseñando y manteniendo pipelines ETL/ELT en entornos cloud.
  • Familiaridad con modelado de datos (esquema estrella, copo de nieve) y arquitectura de datos.
  • Experiencia trabajando con el ecosistema de Azure para datos: Azure Data Factory, Azure Data Lake, Azure SQL, Synapse, etc.
  • Conocimiento de bases de datos relacionales y no relacionales.
  • Uso habitual de herramientas de control de versiones, como Git.

Requerimientos deseables

  • Conocimiento o experiencia con Apache Spark, idealmente dentro de Databricks.
  • Familiaridad con plataformas y buenas prácticas de data warehousing.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Business Analyst con Foco en Google Analytics 4
  • BC Tecnología
  • Santiago (Hybrid)
Analytics Agile Data Analysis Google Ads
En BC Tecnología somos una consultora de servicios IT con amplia experiencia en distintos segmentos del mercado, como financiero, seguros, retail y gobierno. Desde hace más de 6 años diseñamos soluciones a la medida de las necesidades de nuestros clientes, desarrollando proyectos, formando equipos ágiles y entregando servicios de outsourcing y soporte IT.
Participarás dentro del área de desarrollo y análisis de datos, apoyando a clientes a optimizar la medición digital y el análisis del comportamiento de usuarios en sus sitios web y aplicaciones mediante Google Analytics 4 y otras herramientas de tracking.
El objetivo es impulsar la mejora continua de productos digitales a partir de la extracción y análisis de datos confiables y bien estructurados, alineados a los objetivos de negocio de nuestros clientes.

This offer is exclusive to getonbrd.com.

Funciones del cargo

  • Construir dashboards utilizando herramientas como Looker Studio o Looker, diseñados para facilitar la toma de decisiones de equipos de negocio y desarrollo.
  • Analizar datos del comportamiento del usuario para detectar oportunidades de mejora y entregar recomendaciones concretas basadas en insights accionables.
  • Colaborar con el Analytics Lead y equipos de negocio para definir la estrategia de medición que permita alinear la recolección de datos con los objetivos estratégicos.
  • Documentar detalladamente los requerimientos de marcaje para desarrolladores, asegurando que todos los eventos, variables y métricas necesarias estén correctamente implementadas en los sitios y apps.
  • Configurar y mantener etiquetas en Google Tag Manager, incluyendo eventos, píxeles, y herramientas adicionales como Hotjar, adaptándose a los objetivos específicos establecidos.
  • Supervisar y dar seguimiento al estado de los marcajes solicitados, garantizando su correcta implementación y trazabilidad.
  • Trabajar en estrecha colaboración con equipos multidisciplinarios (desarrollo, producto y negocio) para asegurarse de que la información recolectada sea precisa y relevante.

Descripción del perfil requerido

Buscamos un Business Analyst con experiencia sólida en Google Analytics 4 y gestión avanzada de herramientas de medición digital. Se valorará la capacidad para interpretar datos cuantitativos y convertirlos en insights claros que soporten decisiones estratégicas.
Es fundamental contar con conocimientos técnicos para manejar y configurar Google Tag Manager, implementar píxeles y floodlights, y comprender el flujo de datos desde la recolección hasta la visualización final.
El candidato debe ser una persona metódica, orientada al detalle y con buenas habilidades de documentación técnica para comunicar requerimientos a equipos de desarrollo. Además, debe poseer una mentalidad analítica, capacidad para trabajar colaborativamente, y facilidad para priorizar tareas en entornos ágiles.
Requisitos imprescindibles incluyen experiencia previa en medición digital con GA4, uso de herramientas como Looker Studio, y manejo de etiquetas y trackers digitales. Se valorará conocimiento en otras herramientas de análisis de comportamiento de usuarios.
En cuanto a habilidades blandas, se esperan buenas dotes comunicacionales para interactuar con equipos multidisciplinarios, proactividad para detectar mejoras y responsabilidad para asegurar la trazabilidad y calidad de los datos recolectados.

Competencias y conocimientos deseables

Se valoran conocimientos en herramientas complementarias como Hotjar para análisis cualitativo del usuario. También será un plus experiencia en el diseño de estrategias de medición avanzadas y manejo de plataformas publicitarias que utilicen floodlights o píxeles, como Google Ads o plataformas de remarketing.
Experiencia en metodologías ágiles y conocimiento básico de programación o scripting para la implementación de etiquetas será un diferencial positivo.
Se considerará favorable personas que demuestren capacidad de liderazgo para coordinar iniciativas de análisis y medición dentro de equipos multifuncionales.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Ofrecemos modalidad híbrida con oficina ubicada en Las Condes, combinando la flexibilidad del trabajo remoto con la colaboración presencial para garantizar un equilibrio óptimo entre vida personal y laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional continuo.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Arquitecto/a de Soluciones (Data)
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Official job site: Get on Board.

El/la Arquitecto/a de Soluciones de Data de 2Brains:

El Arquitecto de Soluciones se encarga de diseñar y desarrollar sistemas de datos sólidos, lo que incluye la elaboración de diagramas de arquitectura que permitan almacenar, procesar y analizar grandes volúmenes de información de manera eficiente. Además, se debe evaluar e identificar soluciones tecnológicas en función del proveedor seleccionado, detallando los requerimientos de red, servicios asociados y herramientas necesarias para la implementación.

Como parte del proceso, también es fundamental construir pruebas de concepto (POC) que permitan transformar los datos en formatos utilizables, alineados con la solución técnica definida.

¿Qué conocimientos buscamos en/la Arquitecto/a Soluciones de Data?

  • Título en Ingeniería en Informática o carrera afín, idealmente con certificación profesional como Ingeniero/a de Datos
  • Entre 4 a 6 años de experiencia desempeñando funciones similares en el área de datos
  • Dominio de SQL para consultas estructuradas sobre bases de datos relacionales
  • Conocimiento práctico de bases de datos NoSQL como MongoDB, Cassandra o HBase para manejar datos semiestructurados o no estructurados
  • Manejo de lenguajes de programación como Python o Scala, con uso de Apache Spark para procesamiento distribuido
  • Experiencia con herramientas de Big Data como Hadoop o Apache Spark en entornos productivos
  • Familiaridad con plataformas de cloud computing como AWS, Azure o Google Cloud Platform para almacenamiento, procesamiento y análisis de datos
  • Capacidad para diseñar, implementar y mantener procesos ETL (extracción, transformación y carga de datos) desde múltiples fuentes
  • Conocimientos básicos de machine learning, aplicando modelos predictivos o descriptivos sobre datos
  • Experiencia en el diseño y automatización de pipelines de datos complejos utilizando herramientas como Apache Airflow o Luigi
  • Administración de bases de datos relacionales, NoSQL y servicios gestionados en la nube
  • Diseño y desarrollo de arquitecturas de almacenamiento como data warehouses, data lakes o soluciones LakeHouse
  • Procesamiento eficiente de grandes volúmenes de datos en entornos distribuidos
  • Uso de prácticas y herramientas DevOps orientadas a flujos de datos y operaciones analíticas en la nube

¿Qué competencias buscamos en el/la Arquitecto/a Soluciones de Data?

  • Orientación al cliente interno y externo
  • Compromiso y proactividad
  • Comunicación efectiva
  • Pensamiento analitico
  • Colaboración y trabajo en equipo

Te ofrecemos

  • Oportunidad de trabajar en un ambiente dinámico y en crecimiento, donde se valora la innovación y la creatividad.
  • Desarrollo profesional continuo con acceso a formación y certificaciones.
  • Participación en proyectos desafiantes con clientes de alto perfil.
  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto enfocado en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos encuentros, capacitaciones y actividades culturales.
  • Programas de bienestar.
  • Trabajo Remoto.
  • Espacios para charlas internas.
  • Días de descanso.
  • Día de cumpleaños libre.
  • Horario de trabajo de México.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2800 Tiempo completo
Data Ops
  • coderslab.io
  • Santiago (Hybrid)
Python SQL DevOps Big Data

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Ops para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This company only accepts applications on Get on Board.

Funciones del cargo

• Definir, construir y mantener de forma automatizada nuestras bases de datos relacionales y NO relacionales en los distintos ambientes cloud (Público y Privado).
• Colaborar en la construcción y el soporte de nuestra plataforma cloud y sus servicios.
• Colaborar con los equipos de producto identificando restricciones y requerimientos, definiendo arquitecturas de solución y aprovisionando las capacidades de la plataforma que permitan cumplir los atributos de calidad de los productos.
• Participar activamente en espacios de colaboración, mentoreando personas y equipos, e identificando oportunidades de mejora.

Requerimientos del cargo

Conocimientos lenguaje Python
Tener conocimientos de la nube GCP intermedio/avanzado y su gama de productos para serverless y contenedores (Cloud Run, Cloud Scheduler, etc)
Poseer experiencia en Bigquery (SQL)
Gitlab CI
Terraform intermedio/avanzado (generar nuevos módulos, debug de state, etc)
Manejo en GKE nivel administración
Nivel básico/intermedio en Unix (consola)
Deseable:
Estar instruido en IAM de GCP (herencia de IAM, impersonalización, principio de mínimos permisos, etc)
Conocimientos de networking tanto “on-premise” y en la nube GCP
Haber trabajado con K8S “on-premise” y tener nivel intermedio de conocimiento a nivel administración y mantención de nodos
Conocimientos en ArgoCD y Airflow/Composer
Compromiso con las responsabilidades
Manejo de herramientas de IA (Copilot, Gemini, Cursor, etc)
Conocimientos en arquitectura hexagonal y testing con Python
Estar familiarizado con el ciclo de vida DevOps

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1700 Tiempo completo
Analista de Datos BI
  • S3 Chile
  • Santiago (Hybrid)
Python Analytics MySQL PostgreSQL
S3 Chile es una empresa líder en la entrega de servicios de outsourcing especializada en procesos de negocio. Nuestro enfoque está en brindar soluciones integrales que permiten a nuestros clientes optimizar sus operaciones a través de la gestión eficiente de datos y análisis avanzado. El equipo de análisis de datos juega un rol fundamental, colaborando con diversas áreas como marketing, ventas y negocios para impulsar estrategias basadas en inteligencia analítica. Nuestra misión es ofrecer un entorno de aprendizaje continuo y profesionalización en consonancia con las últimas tendencias tecnológicas, fomentando el crecimiento tanto del equipo como de la organización. Ser parte de S3 Chile significa contribuir directamente al éxito de grandes clientes mediante innovación y manejo experto de datos.

Find this vacancy on Get on Board.

Responsabilidades principales

  • Análisis de datos: Recopilar, limpiar y analizar grandes volúmenes de datos provenientes de diversas fuentes para identificar tendencias, patrones y oportunidades de mejora.
  • Desarrollo de modelos predictivos y estadísticos: Diseñar y construir modelos estadísticos y algoritmos para predecir resultados, evaluar riesgos y optimizar procesos empresariales.
  • Visualización de datos: Crear visualizaciones claras e impactantes mediante herramientas como Tableau y Power BI para comunicar hallazgos de manera efectiva a las partes interesadas.
  • Elaboración de informes y presentaciones: Preparar reportes detallados y presentaciones ejecutivas que resuman insights clave y recomendaciones prácticas para equipos ejecutivos y operativos.
  • Colaboración interdisciplinaria: Trabajar estrechamente con equipos de negocio, marketing, ventas y tecnología para definir requerimientos, validar hipótesis y co-crear soluciones basadas en datos.

Habilidades y competencias requeridas

  • Conocimientos en estadística y matemáticas: Dominio de conceptos avanzados como regresión, correlación, análisis de varianza (ANOVA) y otras técnicas estadísticas aplicadas.
  • Programación: Experiencia sólida en lenguajes como Python, R y SQL para manipulación de datos, construcción de modelos y automatización de procesos.
  • Manejo de herramientas analíticas: Capacidad para utilizar herramientas como Excel avanzado, Tableau, Power BI y otras plataformas de visualización y análisis.
  • Bases de datos: Conocimiento práctico en gestión y consultas sobre bases de datos relacionales como MySQL y PostgreSQL.
  • Plataformas de análisis digital: Familiaridad con Google Analytics, Mixpanel y otras herramientas para análisis de comportamiento en entornos digitales.
  • Pensamiento crítico y resolución de problemas: Aptitud para examinar situaciones complejas, identificar causas raíz y generar soluciones innovadoras y eficientes.
  • Comunicación efectiva: Habilidad para explicar conceptos técnicos complejos en un lenguaje claro, adaptado a diferentes audiencias, facilitando la toma de decisiones basadas en datos.
Requisitos académicos y experiencia:
  • Título universitario en Ingeniería Comercial, Ingeniería Civil, Estadística, Matemáticas, Ciencias de la Computación o áreas afines.
  • Experiencia mínima de 2 a 3 años en análisis de datos o roles relacionados, preferiblemente en entornos empresariales.
  • Certificaciones profesionales como Certified Data Analyst (CDA) o Certified Analytics Professional (CAP) serán consideradas un plus significativo.

Habilidades y conocimientos deseables

  • Experiencia en manejo de grandes volúmenes de datos (Big Data) y conocimiento de herramientas o frameworks asociados.
  • Conocimiento en técnicas de machine learning y su aplicación práctica en modelos predictivos.
  • Familiaridad con metodologías ágiles de trabajo y gestión de proyectos.
  • Experiencia previa trabajando en equipos multidisciplinarios y en ambientes dinámicos.
  • Habilidades avanzadas en storytelling con datos para mejorar la comunicación visual y estratégica.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos que incluyen programas de bienestar y capacitaciones continuas.
👥 Un equipo comprometido que promueve un entorno de aprendizaje constante alineado con los nuevos avances tecnológicos.
Entorno colaborativo, flexible y remoto, alineado con las necesidades actuales del mercado laboral en Chile.

Health coverage S3 Chile pays or copays health insurance for employees.
Computer provided S3 Chile provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily, lo que refleja un sólido posicionamiento en el sector inmobiliario y de administración de propiedades en la región. El equipo de datos tiene un rol clave para optimizar y dirigir los procesos internos mediante soluciones tecnológicas de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa.

This offer is exclusive to getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos profesionales

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL a nivel medio.
  • Manejo de Python Intermedio/Avanzado (excluyente), con experiencia en librerías Pandas y Numpy.
  • Manejo de Power BI a nivel medio para desarrollo y mantenimiento de dashboards.
  • Manejo avanzado de Excel para análisis y procesamiento de información.
  • Experiencia mínima de 1 a 3 años.
Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Habilidades y conocimientos deseables

Se valoran conocimientos en metodologías ágiles para la gestión y desarrollo colaborativo de proyectos, capacidades de comunicación efectiva para la interacción con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Asimismo, la experiencia en buenas prácticas de gobernanza y calidad de datos será un plus importante para aportar a la robustez del ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad.
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales.
  • Monto mensual en app de snacks en la oficina.
  • Medio día libre en tu cumpleaños.
  • Copago en seguro complementario de salud.
  • Reajuste anual de renta basado en IPC.
  • Bono anual por desempeño.
  • Eventos empresa y happy hours financiados por la compañía.
  • Acceso a plataforma de cursos de formación.
  • Convenios con gimnasios, descuentos y más.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a de Datos (Data Engineer)
  • Arara
Python PostgreSQL Git SQL

Arara es una empresa tecnológica especializada en WiFi marketing, ofreciendo soluciones innovadoras que optimizan la conectividad y la experiencia del usuario.

En Arara, estamos buscando un/a Ingeniero/a de Datos (Data Engineer) apasionado/a y experimentado/a para unirse a nuestro equipo de tecnología.

Buscamos a un/a profesional proactivo/a, con una sólida capacidad para resolver problemas complejos y que no solo ejecute tareas, sino que también contribuya activamente en la toma de decisiones sobre la arquitectura de datos y en la mejora continua de nuestros procesos y productos.

Apply to this job at getonbrd.com.

¿Qué es lo que harás?:

  • Diseñar, construir y mantener pipelines de datos robustos y escalables para procesos de extracción, transformación y carga (ETL/ELT).
  • Desarrollar y optimizar la ingesta de datos desde diversas fuentes, incluyendo APIs, bases de datos y servicios de terceros.
  • Modelar, implementar y gestionar soluciones de almacenamiento de datos, como Data Warehouses y Data Lakes.
  • Trabajar con APIs de modelos de lenguaje grandes (LLMs), construir prompts adecuados y postprocesar resultados de múltiples de estos modelos.
  • Escribir código de alta calidad en Python, limpio, eficiente, bien documentado y cubierto por pruebas para el procesamiento y transformación de grandes volúmenes de datos.
  • Garantizar la calidad, consistencia e integridad de los datos durante todo su ciclo de vida.
  • Colaborar con científicos de datos, analistas y el equipo de backend para entender sus necesidades y proveer datos accesibles y fiables.
  • Optimizar el rendimiento de pipelines y consultas en las plataformas de datos.
  • Participar activamente en revisiones de código ofreciendo y recibiendo feedback constructivo para mejorar la calidad del equipo.
  • Diagnosticar, depurar y resolver problemas o bugs en flujos de datos en desarrollo y producción.
  • Contribuir en discusiones técnicas y decisiones sobre arquitectura de datos en nuevos proyectos.
  • Implementar y mantener herramientas de orquestación de flujos de trabajo, como Apache Airflow.
  • Crear y mantener la documentación técnica de los flujos, modelos y sistemas desarrollados.

Estamos buscando una persona que cumpla con lo siguiente:

Experiencia Profesional: Mínimo de 4 a 6 años de experiencia demostrable en roles de ingeniería de datos, inteligencia de negocios (BI) o desarrollo de software con fuerte enfoque en datos.

Formación académica: Título profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Software o carreras afines.

Conocimientos técnicos requeridos:

  • Lenguajes: Dominio avanzado de Python y sus librerías para el ecosistema de datos (p.ej. Pandas, PySpark).
  • Modelos LLM: Experiencia interactuando con modelos de lenguaje grandes (ej. Gemini, OpenAI), prompt engineering y Retrieval-Augmented Generation (RAG).
  • Bases de datos: Sólida experiencia con bases de datos SQL (como PostgreSQL) y NoSQL (como MongoDB). Valoramos conocimiento en Data Warehouses en la nube (Azure, BigQuery, Redshift, Snowflake).
  • Fundamentos de datos: Conocimiento profundo de ETL/ELT, modelado de datos y arquitecturas de datos (Data Warehouse, Data Lake).
  • Herramientas clave: Experiencia con sistemas de control de versiones Git y contenedores Docker. Se valorará experiencia con orquestadores como Apache Airflow.
  • Nube: Experiencia trabajando con servicios de datos en plataformas en la nube (GCP, AWS, Azure).

Habilidades blandas y otras competencias: Buscamos un profesional proactivo, con capacidad para resolver problemas complejos, aportar en la toma de decisiones para arquitectura de datos, y colaborar eficazmente en equipo.

Se valorará además:

  • Conocimientos en metodologías de desarrollo ágil y mejores prácticas DevOps.
  • Experiencia adicional en ingeniería de datos aplicada a inteligencia artificial y machine learning.
  • Habilidades de comunicación avanzada para colaborar con equipos multidisciplinarios.

Lo que ofrecemos en Arara:

  • 100% remoto – Trabaja desde cualquier lugar con huso horario de América.
  • Cultura organizacional horizontal e innovadora.
  • Equipo colaborativo – Somos un equipo pequeño, horizontal y cercano, donde tu aporte realmente cuenta.
  • Trabajar en una industria en crecimiento: IA aplicada.
  • Capacitaciones en Habilidades profesionales y personales de manera constante.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Analyst área de Cumplimiento
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Back-end
Banco Santander Chile es una organización internacional que enfrenta diariamente retos para ayudar a personas y empresas a progresar. Actualmente, el área de Cumplimiento busca un Data Analyst para apoyar la Unidad de Prevención de Blanqueo de Capitales y Financiamiento del Terrorismo (UPBC), un equipo clave para asegurar que la institución cumpla con regulaciones y prevenga riesgos asociados a delitos financieros. El área está enfocada en la prevención de lavado de activos y financiamiento del terrorismo, contribuyendo a la confianza y cumplimiento regulatorio del banco.

Apply at getonbrd.com without intermediaries.

Funciones

  • Análisis e interpretación de datos acorde a lo solicitado.
  • Realizar análisis y minería de datos mediante herramientas locales, para identificar tendencias, desviaciones y puntos críticos de atención.
  • Analizar cambios en requerimientos regulatorios o políticas internas, brindando apoyo para la implementación de marcos, políticas y programas relacionados con cumplimiento y riesgo.
  • Comprender las políticas locales y marcos legales vinculados al crimen financiero.
  • Desarrollar informes clave y sobre temas críticos dirigidos a la alta dirección y foros en nombre de Financial Crime Compliance (FCC).
  • Monitorear el progreso de la unidad, bancas y filiales respecto a la efectividad de los controles según políticas y procedimientos.
  • Gestionar y realizar seguimiento de clientes con aumento de riesgo.
  • Mantener actualizada una biblioteca de Indicadores Clave de Riesgo (KRI) e Indicadores Clave de Control (KCI) locales, alineados con los estándares globales de FCC.

Requisitos

  • Dominio de lenguaje SQL para la extracción y manipulación de datos.
  • Conocimientos en Python para la automatización y análisis avanzado de datos.
  • Alta capacidad analítica para interpretar grandes volúmenes de información y detectar patrones.
  • Habilidad para trabajar en equipo y comunicar hallazgos de forma clara a distintos niveles organizacionales.
  • Orientación a la prevención de delitos financieros y al cumplimiento regulatorios.

Competencias deseables

  • Experiencia previa en el sector financiero.
  • Conocimiento de herramientas de minería de datos y análisis estadístico.
  • Capacidad de adaptación rápida a cambios regulatorios.
  • Habilidades de presentación y generación de reportes ejecutivos.
  • Manejo de otros lenguajes de programación o herramientas de visualización de datos.

Beneficios

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional de los y las colaboradores.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Management
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence

Banco Santander Chile es una institución financiera líder en el país, reconocida por su enfoque en ayudar a personas y empresas a progresar mediante soluciones innovadoras y personalizadas. El área de banca comercial se dedica a diseñar y ejecutar estrategias comerciales que optimizan la rentabilidad de la cartera de clientes, utilizando tecnología avanzada para la gestión de datos y el desarrollo de herramientas propias que potencian la toma de decisiones y la experiencia del cliente.

Este equipo trabaja en la constante búsqueda y aplicación de nuevas tecnologías para mejorar las acciones comerciales y asegurar que las iniciativas estén disponibles y sean efectivas en los diferentes canales digitales y presenciales del banco.

© getonbrd.com.

Responsabilidades principales

Como data management, tus responsabilidades incluirán:

  • Participar en la generación de fuentes de información con los distintos atributos y variables calculadas.
  • Automatizar el despliegue de las acciones comerciales con los distintos actores de canales del banco.
  • Recomendar nuevas tecnologías para mejorar el despliegue y la búsqueda de nuevas acciones de las campañas dentro del equipo de inteligencia comercial.
  • Coordinar y desplegar las ofertas y/o campañas a los distintos canales del banco Santander.
  • Automatizar el despliegue de los Journeys (con Salesforce Marketing Cloud y Adobe Experience Platform - AJO) en base a los distinto eventos de nuestros clientes.

Perfil y experiencia requerida

Buscamos profesionales con experiencia en programación orientada a la gestión comercial en el sector financiero o afines. Se valoran conocimientos sólidos en análisis de datos, manejo de bases de datos y desarrollo de software aplicado a procesos comerciales.

Entre las habilidades técnicas y competencias destacan:

  • Experiencia en lenguajes de programación y explotación de datos, de al menos, 1 año.
  • SQL avanzado
  • Python avanzado en análisis de datos
  • Manejo de Tableau
  • Manejo de Power BI
  • Proactividad en la búsqueda constante de innovación tecnológica aplicable a la función.

Se valoran además habilidades blandas como la adaptación al cambio, resiliencia, y pensamiento crítico orientado a la mejora continua.

Conocimientos y experiencia complementarios

Será un plus contar con experiencia previa en bancos o instituciones financieras y manejo de herramientas como SalesForce Marketing Cloud y AJO de Adobe Experience Platform . Conocimientos en metodologías ágiles para proyectos de desarrollo tecnológico también serán bien valorados.

Habilidades adicionales en visualización de datos, para impulsar la innovación en las acciones comerciales serán una ventaja competitiva.

Beneficios y oportunidades de crecimiento

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL BigQuery ETL
En BC Tecnología, somos una consultora TI enfocada en brindar servicios integrales de outsourcing, desarrollo de proyectos y consultoría para clientes de sectores financieros, seguros, retail y gobierno. Nos especializamos en formar equipos ágiles y multidisciplinarios que aportan soluciones tecnológicas de vanguardia. Actualmente, estamos reclutando para un proyecto de 6 meses que involucra el desarrollo de pipelines de datos y arquitecturas en Google Cloud Platform, destinados a optimizar el manejo y análisis de grandes volúmenes de información.

Exclusive offer from getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT en Google Cloud Platform para asegurar el flujo eficiente y confiable de datos.
  • Implementar soluciones utilizando productos como BigQuery, Cloud Functions, Airflow y Cloud Storage que soporten procesos analíticos y de negocio.
  • Optimizar consultas SQL y desarrollar scripts en Python para manipulación y transformación de datos.
  • Gestionar versiones y colaborar dentro del equipo utilizando herramientas de control de código como GitLab, GitHub o Bitbucket.
  • Aplicar buenas prácticas en desarrollo, pruebas y documentación técnica.
  • Colaborar en un entorno ágil, trabajando de forma híbrida entre la oficina en Santiago Centro y remoto.

Requisitos y experiencia

Buscamos un profesional con al menos tres años de experiencia demostrable en desarrollo de proyectos de gestión y procesamiento de datos en Google Cloud Platform. Es indispensable tener conocimientos sólidos en SQL y Python para la manipulación y transformación de datos en entornos analíticos. Además, se requiere experiencia práctica con productos clave de GCP, incluyendo BigQuery para almacenamiento y consultas masivas, Cloud Functions para ejecución de funciones serverless, Airflow para orquestación de flujos de trabajo y Cloud Storage para almacenamiento escalable.
El candidato debe estar familiarizado con herramientas de control de versiones como GitLab, GitHub o Bitbucket, que facilitan el trabajo colaborativo y la gestión de código. La capacidad para adaptarse a un modelo híbrido de trabajo, combinando presencialidad en Santiago Centro con trabajo remoto, es fundamental.
Se valoran cualidades como la proactividad, el enfoque orientado al detalle, habilidades comunicativas para trabajo en equipo y la capacidad para afrontar desafíos técnicos en proyectos dinámicos y exigentes.

Conocimientos adicionales deseables

Se considerará un plus la experiencia trabajando con DBT (Data Build Tool), que facilita el desarrollo y mantenimiento de modelos de datos dentro de pipelines modernos. Contar con certificaciones en plataformas cloud, especialmente en Google Cloud Platform, y experiencia previa en proyectos relacionados con áreas financieras o retail, será valorado positivamente.
El manejo de metodologías ágiles y experiencia en la documentación y automatización de procesos ETL fortalecerán el perfil, ya que colaboramos con equipos multidisciplinarios en entornos colaborativos e innovadores.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio entre vida laboral y personal.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Docker Data Transformation
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

© Get on Board. All rights reserved.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1900 - 2500 Tiempo completo
Ingeniero de Datos Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Applications at getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener ingestas de datos hacia Google Cloud Platform.
  • Implementar pipelines ETL eficientes y escalables para procesamiento de datos.
  • Colaborar con equipos técnicos y de negocio para asegurar la calidad y disponibilidad de la información.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando BigQuery, Cloud Functions, Airflow y Cloud Storage.
  • Utilizar DBT para transformación y modelado de datos (ideal).
  • Controlar versiones y colaborar en el desarrollo mediante herramientas como GitLab, Bitbucket o GitHub.
  • Documentar procesos y asegurar buenas prácticas en el manejo de datos.
  • Apoyar en la identificación y resolución de problemas técnicos relacionados con ingesta y procesamiento de datos.

Requerimientos del cargo

  • Conocimientos técnicos obligatorios:
    • Desarrollo de proyectos ETL en Google Cloud Platform (GCP).
    • Uso avanzado de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
    • Experiencia ideal con DBT (Data Build Tool).
    • Dominio de lenguajes SQL y Python.
    • Manejo de gestores de versionamiento: GitLab, Bitbucket o GitHub.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2500 Tiempo completo
Ingeniero de Datos Semi Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

  • Desarrollar y mantener pipelines ETL para ingesta, transformación y carga de datos en GCP.
  • Modelar datos para asegurar la calidad, integridad y optimización en BigQuery.
  • Implementar soluciones usando Cloud Functions, Airflow y Cloud Storage para automatización y orquestación de procesos.
  • Colaborar con equipos multidisciplinarios para cumplir con los objetivos del proyecto Lago de Datos 2.0.
  • Utilizar DBT para la transformación y modelado de datos (cuando aplique).
  • Gestionar versiones y colaborar en el control de código mediante GitLab, Bitbucket o GitHub.
  • Documentar procesos técnicos y mantener buenas prácticas en el manejo de datos.

Requerimientos del cargo

  • Experiencia en desarrollo de proyectos de datos (ETLs) en Google Cloud Platform (GCP).
  • Conocimiento y manejo de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
  • Experiencia ideal con DBT (Data Build Tool).
  • Dominio de lenguajes SQL y Python.
  • Experiencia con gestores de versionamiento como GitLab, Bitbucket o GitHub.
  • Experiencia en modelado de datos en GCP.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2600 Tiempo completo
Data Engineer
  • ARKHO
Python Analytics Virtualization Amazon Web Services

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Apply exclusively at getonbrd.com.

🎯 Objetivo del Rol

Liderar y ejecutar el desarrollo de pipelines de datos en proyectos de analytics, con una visión integral de arquitectura de datos end to end. Se espera que aplique su experiencia técnica para fomentar la mejora continua, el cumplimiento de objetivos y la entrega de productos tecnológicos de alta calidad. Será un referente técnico dentro del equipo, aportando conocimientos en herramientas, lenguajes e infraestructura, y participando activamente en la generación de soluciones robustas y escalables.

Funciones Principales:

  • Colaborar estrechamente con el líder de equipo y el equipo de implementación, entregando visibilidad técnica del avance de las iniciativas.
  • Apoyar en la definición, estimación y planificación de tareas para productos analíticos bajo metodologías ágiles.
  • Liderar la gobernanza técnica de la solución junto al cliente, participando en decisiones clave.
  • Diseñar e implementar arquitecturas de soluciones de datos en la nube de forma colaborativa.
  • Participar en el modelado de datos y desarrollo de modelos analíticos corporativos.
  • Investigar y profundizar en tecnologías necesarias para alcanzar los objetivos del proyecto.

🏹 Perfil del archer

En nuestra compañía valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:

  • Al menos 3 años en proyectos de analítica de datos.
  • Dominio avanzado de al menos un lenguaje de programación, preferiblemente Python.
  • Sólidos conocimientos en herramientas y servicios de datos en AWS: Glue, Lambda, S3, Athena, Redshift, Step Functions, entre otros.
  • Experiencia en diseño de pipelines de datos y orquestación (por ejemplo, Airflow, Step Functions).
  • Familiaridad con arquitecturas modernas de datos como Data Lakes, Data Warehouses o Lakehouses.
  • Experiencia o conocimientos en modelado de datos utilizando enfoques como modelo dimensional, estrella y copo de nieve.

🧩 Habilidades opcionales

Se valorará positivamente si cuentas con:

  • Nivel de inglés intermedio o superior, que te permita participar en conversaciones técnicas y entender documentación especializada.
  • Experiencia trabajando con metodologías ágiles, especialmente Scrum, aplicadas en proyectos colaborativos de desarrollo de software o análisis de datos.

🌟 Beneficios del Archer

En ARKHO fomentamos una cultura de aprendizaje continuo, impulsamos la innovación tecnológica y promovemos un entorno de trabajo flexible, inclusivo y respetuoso, que valora tanto el desarrollo profesional como el bienestar personal.

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)
💰 Aguinaldos
🏥 Seguro complementario de salud (solo Chile) o Bono de Salud
🧘‍♀️ ARKHO Open Doors

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Compara
Python PostgreSQL Back-end Kafka
Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

Apply directly on the original site at Get on Board.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Manufacturing Business Analyst
  • TECLA
Data Integration

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

© Get on Board. All rights reserved.

Job Details:

We are seeking a Manufacturing Business Analyst to support the integration of shop floor systems and Manufacturing Execution Systems (MES). This role involves working closely with operations and IT to drive data coordination, support light automation, and optimize system interactions within a manufacturing environment.

Key Responsibilities:

  • Analyze and document workflows between shop floor transactional systems and MES platforms.
  • Support data integration and coordination across OT systems including Digital Numeric Controllers and real-time data platforms.
  • Collaborate with cross-functional teams to support system improvements using low-code platforms like Mendix.
  • Provide technical expertise for the configuration and implementation of manufacturing technologies.
  • Serve as a liaison between operations, engineering, and IT for smart factory initiatives.

Qualifications:

  • Experience working with shop floor systems that interact with MES solutions.
  • Familiarity with light OT automation, including Digital Numeric Controllers.
  • Experience using Mendix (or similar low-code platforms) for data coordination and workflow improvement.
  • Knowledge of OSI PI or similar real-time data systems.
  • Strong analytical and communication skills.
  • Experience in manufacturing or industrial environments required.
  • This is a non-SAP consultant role.

Conditions

  • A fully remote position with a structured schedule that supports work-life balance.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.

*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Automation Business Analyst
  • TECLA
Automation Business Analyst Continual improvement process Documentation
TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.
Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

This job is original from Get on Board.

Job Details:

We are seeking a highly skilled Automation Business Analyst to support and optimize Building Automation Systems. The ideal candidate will be deeply experienced in automation environments and capable of serving as the key interface between technical teams and operations.

Key Responsibilities:

  • Analyze, document, and optimize business processes related to building automation systems.
  • Collaborate with stakeholders to understand automation requirements and translate them into functional specifications.
  • Act as a subject matter expert for Honeywell Control Systems and provide strategic input on automation projects.
  • Drive continuous improvement by identifying opportunities to streamline operations and improve energy efficiency through automation.
  • Coordinate with engineering and IT teams to ensure system integration and successful project implementation.

Qualifications:

  • 4+ years of experience in a Business Analyst or Automation Analyst role.
  • Proven experience with Honeywell control systems – this is a must.
  • In-depth knowledge of Building Automation Systems – this is a must.
  • Excellent problem-solving, documentation, and stakeholder communication skills.
  • Familiarity with automation protocols and digital building infrastructure.
  • Experience working in industrial, manufacturing, or facilities automation environments.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.
*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

-Desarrollo de componentes en Python
-Utilización de BigQuery:Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
-Transformación de Datos:Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
-Pruebas de Precisión de Datos:Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
-Seguimiento de Cambios:Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
-Construcción de Modelos de Datos: Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
-Escritura de Código de Transformación: Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
Implementación y Documentación: Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

-Programación
-Python
-SQL: Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.-GCP
-BigQuery : Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos
-Kubernetes
-Docker

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 6 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2500 Tiempo completo
Ingeniero Gestión Datos y Analítica
  • Genesys Tecnologías de Inform. SpA
  • Santiago (In-office)
Agile Azure Artificial Intelligence Google Cloud Platform
Genesys Tecnologías de Inform. SpA es una empresa con más de 30 años en el mercado latinoamericano, especializada en desarrollo de software y servicios TI. Con operaciones en Concepción y Santiago, provee soluciones tecnológicas que incluyen soporte y mantenimiento de aplicaciones, RPA, inteligencia artificial, QA automation, staff augmentation y servicios en la nube. La empresa acompaña a sus clientes en su camino de transformación digital utilizando tecnologías de última generación como Cloud, Data Analytics, Artificial Intelligence y Process Automation, garantizando un impacto positivo en sus operaciones.

Find this job on getonbrd.com.

Funciones del Cargo

  • Coordinar y supervisar proveedores de servicios Cloud y de Datos.
  • Supervisar el desempeño de proveedores externos relacionados con Cloud, Datos & Analítica (D&A) e Inteligencia Artificial, asegurando la entrega de servicios según estándares acordados.
  • Coordinar y asegurar que los equipos externos entreguen productos y servicios dentro de los plazos y conforme a los requisitos establecidos, enfocándose en la calidad.
  • Colaborar con stakeholders internos para definir requerimientos claros de proyectos de Datos y Analítica y garantizar su implementación adecuada por parte de los proveedores.
  • Evaluar a los proveedores y equipos asignados, verificando experiencia, capacidad técnica y cumplimiento de acuerdos previos.
  • Gestionar contratos y acuerdos de nivel de servicio (SLA), supervisando su cumplimiento y gestionando incumplimientos si ocurren.
  • Monitorear regularmente métricas de desempeño de proveedores, incluyendo calidad, tiempos de entrega y satisfacción del cliente interno.
  • Controlar el presupuesto asignado a contratos y proyectos, identificando desviaciones y proponiendo medidas correctivas.

Descripción del Rol

Buscamos un profesional con al menos 3 años de experiencia liderando la gestión de servicios, especialmente en proyectos relacionados con Datos y Analítica. El candidato debe poseer habilidades sólidas para coordinar múltiples equipos y proveedores, tanto bajo metodologías tradicionales (waterfall) como ágiles (iterativas, agile y SDLC).
Es fundamental contar con experiencia consolidada en la gestión integral de proveedores y proyectos en el ámbito de Datos y Analítica. Además, se requiere dominio en metodologías de gestión y ciclo de vida de desarrollo de software. Valoramos especialmente experiencia con plataformas Cloud como AWS, Google Cloud Platform, Azure y SAP Business Technology Platform (BTP).
Se espera que el candidato tenga excelentes habilidades de comunicación, capacidad para resolver conflictos, orientación al detalle, y una fuerte vocación por la calidad y cumplimiento de plazos. La gestión eficiente de contratos y control de costos será clave para el éxito en el rol.

Requisitos Deseables

Se valorará experiencia previa específica en plataformas Cloud como AWS, Google Cloud Platform, Azure y SAP Business Technology Platform (BTP). Además, se considera una ventaja el conocimiento en inteligencia artificial aplicada a proyectos de datos y análisis, así como habilidades para trabajar en entornos multidisciplinarios y con metodologías ágiles profundamente implementadas.

Se Ofrece

Tipo de Contrato: Plazo Fijo.
Modalidad de trabajo: Presencial.
Horario: lunes a viernes de 08:30 a 18:30 hrs.
Ubicación: Las Condes, Santiago.
Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación. Trabajarás en un ambiente dinámico y colaborativo, con comunicación directa con nuestra matriz en Concepción y otras operaciones, facilitando la colaboración y el apoyo técnico constante.
Ofrecemos estabilidad y condiciones claras a través de un contrato por proyecto, enfocados en tu desarrollo profesional.

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista Desarrollador de Datos
  • coderslab.io
  • Lima (Hybrid)
Agile PostgreSQL SQL Oracle

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista Desarrollador de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply without intermediaries through Get on Board.

Job functions

Buscamos Analistas Desarrolladores de Datos Semi Senior para sumarse a un proyecto estratégico dentro del área de Operaciones y Sistemas. Serán responsables del diseño, desarrollo y automatización de procesos de integración de datos, participando en una célula ágil orientada a la eficiencia operativa.

🛠️ Responsabilidades

  • Desarrollar procesos ETL utilizando Informatica PowerCenter y/o IDMC.
  • Diseñar, implementar y optimizar consultas y procedimientos en bases de datos Oracle, PostgreSQL y SQL Server.
  • Automatizar procesos recurrentes vinculados a la integración y tratamiento de datos.
  • Documentar desarrollos y flujos implementados.
  • Colaborar con el equipo técnico y funcional para entender los requerimientos y proponer soluciones eficientes.
  • Asegurar la calidad, seguridad y disponibilidad de los datos procesados.
  • Participar de reuniones de seguimiento del proyecto bajo metodología ágil.

Qualifications and requirements

  • Mínimo 3 años de experiencia en desarrollo con Informatica PowerCenter y/o IDMC.
  • Mínimo 3 años de experiencia en desarrollo sobre Oracle, PostgreSQL y SQL.
  • Mínimo 1 año de experiencia en automatización de procesos.
  • Disponibilidad inmediata.

Desirable skills

Deseables

  • Conocimientos en herramientas de scheduling como Control M.
  • Experiencia en procesos bancarios, especialmente conciliación y contabilización de transacciones.

Conditions

Modalidad de contratación: Plazo fijo
Duración del proyecto: 4 - 9 meses
Hibrido en Lima Peru

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en Modelos Analíticos Avanzados
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data Azure
En BC Tecnología, somos una consultora de servicios IT con más de 6 años de experiencia diseñando y desarrollando soluciones tecnológicas acorde a las necesidades de nuestros clientes. Nuestra oferta abarca desde la consultoría y diseño de soluciones, pasando por la formación de equipos y outsourcing de personal, hasta el desarrollo y soporte de proyectos en diversas industrias como servicios financieros, seguros, retail y gobierno. Nos especializamos en crear equipos ágiles, adaptados para trabajar en áreas de infraestructura tecnológica y desarrollo de software, brindando productos y servicios que apoyan la evolución digital de nuestros clientes.

This job is exclusive to getonbrd.com.

Responsabilidades principales

  • Participar activamente en todas las etapas del ciclo de vida del análisis de datos, incluyendo la identificación, estructuración y preparación de datos relevantes para el proyecto.
  • Diseñar, desarrollar e implementar modelos analíticos avanzados, empleando técnicas de estadística clásica y aprendizaje automático para extraer insights clave.
  • Construir visualizaciones de datos efectivas para monitorear periódicamente los indicadores clave de desempeño (KPIs) y facilitar la comprensión de los resultados.
  • Comunicar claramente los hallazgos y resultados analíticos a las áreas de negocio para apoyar la toma de decisiones estratégicas.
  • Llevar a cabo el mantenimiento evolutivo y la optimización continua de los modelos analíticos desplegados, asegurando su calidad, escalabilidad y rendimiento en producción.
  • Colaborar estrechamente con los equipos de ingeniería para garantizar el correcto despliegue y funcionamiento de los modelos en ambientes productivos.
  • Desarrollar e implementar APIs para facilitar el acceso y consumo de los modelos analíticos por otras aplicaciones y servicios internos.
  • Aplicar un enfoque crítico y orientado al negocio para resolver problemas complejos y aportar soluciones efectivas basadas en datos.

Perfil requerido

Buscamos un profesional con título en Ingeniería, Economía, Estadística o carreras afines, con sólida capacidad analítica tanto cuantitativa como cualitativa. Es fundamental poseer experiencia comprobada en el diseño, desarrollo y despliegue de modelos analíticos avanzados, trabajando en conjunto con equipos técnicos en ambientes productivos.
El candidato debe contar con conocimientos avanzados en estadística aplicada, aprendizaje automático, y metodologías analíticas modernas. Además, se requiere un dominio fuerte de SQL para manipulación y consulta de bases de datos, así como programación en Python y PySpark para procesamiento de datos a gran escala.
Es muy valorada la experiencia trabajando con plataformas Azure y Databricks para la gestión y explotación de big data. También es importante la experiencia en el desarrollo y consumo de APIs para integración de modelos y aplicaciones.
Buscamos un profesional comprometido, rigoroso, con actitud crítica y capacidad para presentar resultados de forma clara, orientado a resolver problemas desde una perspectiva de negocio e impacto.

Requisitos deseables

Serán considerados plus aquellos candidatos con experiencia adicional en técnicas de deep learning, manejo de otras herramientas de visualización de datos avanzadas, conocimientos en arquitecturas de microservicios y habilidades en automatización de pipelines analíticos.
Además, se valorará la experiencia en trabajo en equipos multidisciplinarios bajo metodologías ágiles, buen manejo de comunicación efectiva, y disposición para aprendizaje continuo en nuevas tecnologías emergentes.

Beneficios y cultura empresarial

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Relocation offered If you are moving in from another country, BC Tecnología helps you with your relocation.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Senior Data Scientist
  • Niuro
BigQuery Docker Kubernetes Google Cloud Platform
Niuro connects projects with elite tech teams, specializing in collaboration with leading U.S. companies. The position is part of Niuro's international team focused on delivering impactful, data-driven solutions. These projects leverage advanced industrial data science techniques such as predictive maintenance, causal modeling, time series analysis, forecasting, classification, regression, and recommender systems. Niuro empowers tech teams with continuous growth opportunities and handles all administrative tasks, enabling team members to focus on cutting-edge innovation within global client projects.

Find this job and more on Get on Board.

Responsibilities

As a Senior Data Scientist at Niuro, you will be a key contributor to diverse data science projects across various industries. Your main responsibilities include designing and implementing models for predictive maintenance, causal inference, time series forecasting, classification and regression tasks, and recommender systems. You will collaborate with cross-functional teams to develop robust solutions that generate actionable insights for global clients.
You will also be expected to apply your deep knowledge of mathematical engineering and AI to solve complex problems, mentor junior data scientists, and ensure best practices in data preparation, modeling, and deployment, primarily using technologies like Google Cloud Platform (GCP) and BigQuery.
This role requires strong communication skills to translate technical findings into business value and participate in strategic decision-making.

Requirements

We are seeking candidates with a degree in Mathematical Engineering or related fields in Artificial Intelligence. You should have extensive experience working on a variety of data science projects, including but not limited to predictive maintenance, causal modeling, time series analysis, forecasting, classification and regression, causality analysis, and recommender systems.
Proficiency in Google Cloud Platform (GCP) and BigQuery is essential for this role. Experience with cloud-based data infrastructure and scalable data processing pipelines is required.
We value candidates with a strong analytical mindset, problem-solving skills, and a collaborative approach. Ability to work fully remotely with global teams while maintaining high engagement and communication standards is important.
Bonus experience includes working in sectors such as mining, mechanical systems, or finance, where domain-specific knowledge can enhance project impact.

Preferred Qualifications

Experience with additional cloud platforms, advanced causal inference frameworks, and big data technologies is highly desirable. Familiarity with containerization and orchestration tools like Docker and Kubernetes can be a plus.
Prior work in industrial or mechanical sectors, especially mining and finance, is beneficial to understand domain-specific challenges and tailor data solutions accordingly.
Strong leadership skills and experience mentoring junior data scientists will be considered valuable.

What We Offer

We offer the opportunity to engage in technically rigorous, impactful industrial data projects fostering professional growth and innovation. Our environment promotes technical excellence and continual learning.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere around the globe.
Continuous career development is encouraged through training programs and leadership growth opportunities.
Following successful initial collaboration, there is the possibility of transitioning into a stable, long-term full-time position.
Joining Niuro means becoming part of a global tech community backed by strong administrative support that allows you to focus on delivering exceptional results.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6000 Tiempo completo
Platform Engineer
  • Kore RPO
TSQL Power BI Data lake Databricks

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

We are looking:

  • An excellent communicator across all organizational levels with the ability to derive insights from data.
  • A professional with sound judgment and decision-making skills.
  • A self-starter with a strong sense of urgency.
  • A creative, energetic problem solver with flexibility in approach.
  • A relationship-builder with leadership capabilities.

Official job site: Get on Board.

Job functions

  • Deliver and improve prioritized enterprise-certified data assets to support analytics, reporting, and visualization.
  • Design, build, test, and maintain end-to-end data solutions within a global analytics environment using established design patterns and modeling techniques.
  • Promote tools and data usage for increased organizational data access and decision-making capabilities.
  • Explore and integrate internal/external data sources for analysis and development using tools like datalake, databricks, and synapse.
  • Collaborate with product teams to support large-scale business initiatives, perform data modeling, validate/report data, and deliver insights to stakeholders.
  • Respond to ad-hoc analytical needs with validated, actionable findings.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Technology, or equivalent experience.
  • 4+ years of hands-on experience with Data/BI delivery for data warehouses and related applications.
  • 3+ years of experience in Azure SQL and services.
  • Experience with Microsoft Power BI for data visualization.
  • Technical and/or business experience designing BI solutions.
  • Familiarity with installation, configuration, and stabilization of BI/Enterprise Reporting implementations.
  • Knowledge of relational and dimensional modeling and data warehousing methodologies.
  • Expertise in writing T-SQL and DAX.
  • Experience in creating application support documentation for production changes.

POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6000 Tiempo completo
Sr. Business Intelligence Engineer
  • Kore RPO
TSQL Power BI Data lake Databricks

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

We are looking:

  • An excellent communicator across all organizational levels with the ability to derive insights from data.
  • A professional with sound judgment and decision-making skills.
  • A self-starter with a strong sense of urgency.
  • A creative, energetic problem solver with flexibility in approach.
  • A relationship-builder with leadership capabilities.

Job opportunity published on getonbrd.com.

Job functions

  • Deliver and improve prioritized enterprise-certified data assets to support analytics, reporting, and visualization.
  • Design, build, test, and maintain end-to-end data solutions within a global analytics environment using established design patterns and modeling techniques.
  • Promote tools and data usage for increased organizational data access and decision-making capabilities.
  • Explore and integrate internal/external data sources for analysis and development using tools like datalake, databricks, and synapse.
  • Collaborate with product teams to support large-scale business initiatives, perform data modeling, validate/report data, and deliver insights to stakeholders.
  • Respond to ad-hoc analytical needs with validated, actionable findings.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Technology, or equivalent experience.
  • 4+ years of hands-on experience with Data/BI delivery for data warehouses and related applications.
  • 3+ years of experience in Azure SQL and services.
  • Experience with Microsoft Power BI for data visualization.
  • Technical and/or business experience designing BI solutions.
  • Familiarity with installation, configuration, and stabilization of BI/Enterprise Reporting implementations.
  • Knowledge of relational and dimensional modeling and data warehousing methodologies.
  • Expertise in writing T-SQL and DAX.
  • Experience in creating application support documentation for production changes.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista de Big Data
  • SONDA
  • Santiago (Hybrid)
Java Python PostgreSQL SQL

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, para proyecto SII - Servicio de impuestos indirectos, buscamos a Especialista de Big Data.

Send CV through getonbrd.com.

Funciones del cargo

· Ser responsable de crear el "Big Data", tubería de datos, desde la recolección hasta la entrega para su análisis o para alimentar un producto o servicio basado en análisis predictivos en producción.

· Asegurar que la arquitectura de datos sea factible para que los científicos de datos trabajen con ella.

· Construir y mantener un Data Lakes y ofrece API para acceder al Especialista de Data Science que usa los datos para su análisis y ejecución de modelos de Machine Learning.

· Ser responsable de dar todo el apoyo para que el trabajo del Especialista de Data Science suceda, y sea “más efectivo”.

Requerimientos del cargo

· Estudios superiores en áreas relacionados.

· Desde 2 años de experiencia en cargos similares.

· Construcción de procesos e integración de datos en Big Data

· Conocimiento de conceptos de computación distribuida

· Experiencia y conocimiento en el uso de SQL.

· Uso de bases de datos relacionales, particularmente en Oracle y postgreSQL.

· Bases de Datos NoSQL
· Manejo de sistemas Unix/linux, shell script

· Programación orientada a objetos usando JAVA o Python

· Programación Funcional en Scala/Spark

· Manejo de herramientas de CI/CD.

· Conocimiento de almacenamiento de Datos.
· Diseño de Esquemas de datos

· Conocimiento de Hive, Impala, Kudu

· Conocimiento de Kafka ​

· Deseable conocimiento en el uso de servicios en entorno Cloudera.

Opcionales

Y mucho mejor si destacas por tener alguna certificación o curso en alguno de estos tópicos: ​

· Integración de datos

· Big data

· Desarrollo API

· Microservicios, springboot, springbatch

· Desarrollo en nube

· Desarrollo seguro

· Diseño de aplicaciones

· Metodologías ágiles

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Dental insurance SONDA pays or copays dental insurance for employees.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
Education stipend SONDA covers some educational expenses related to the position.
Fitness subsidies SONDA offers stipends for sports or fitness programs.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2300 - 2500 Tiempo completo
Data Reporting Engineer
  • Contac Ingenieros
  • Santiago (Hybrid)
Python SQL Azure ETL

En Contac buscamos aportar y potenciar los equipos especializados de nuestros clientes, agregando valor a sus procesos a través de la experiencia de nuestros profesionales.
El equipo de trabajo está orientado a desarrollar, implementar y mantener sistemas avanzados de reportes y visualización de datos, con la finalidad de mejorar la gestión empresarial.

Apply directly at getonbrd.com.

Principales Desafíos

En esta posición, serás el protagonista en la transformación de datos en conocimiento relevante para la toma de decisiones estratégicas dentro de la minería.

  • Diseñar, desarrollar y optimizar reportes y herramientas de visualización que faciliten el acceso y análisis de la información, asegurando que sea clara y estratégica para los diferentes niveles de la organización.
  • Construir, mantener y mejorar las plataformas de datos que alimentan las soluciones de reportabilidad, garantizando la integridad y actualización continua de la información.
  • Integrar y gestionar procesos ETL (Extract, Transform, Load) para asegurar que la información sea confiable, oportuna y eficiente, soportando la toma de decisiones diarias.

Conocimientos Claves y Requisitos

Buscamos profesionales con un perfil técnico avanzado que combine conocimientos en ingeniería con habilidades sólidas en análisis y visualización de datos dentro del sector minero.

  • Python avanzado, con experiencia práctica utilizando librerías especializadas como Pandas, NumPy, Matplotlib, Plotly y Dash para manipulación, análisis y creación de visualizaciones dinámicas.
  • SQL avanzado y competencia en manejo y optimización de bases de datos complejas.
  • Power BI avanzado, capaz de construir dashboards impactantes que faciliten la interpretación y comunicación de datos a niveles estratégicos.
  • Experiencia en gestión de ETL y modelamiento de datos, con familiaridad en el ecosistema Azure para administrar y optimizar plataformas de datos en la nube.
  • Título profesional en Ingeniería Civil o Industrial, preferentemente con especialidad en Metalurgia, Química o Minería, aportando una visión práctica de los procesos productivos y operativos mineros.
  • Conocimiento sólido de los procesos mineros y manejo de indicadores clave del negocio para convertir datos en información relevante y accionable.
  • Mínimo 2 años de experiencia específica en reportabilidad y análisis de datos, preferentemente en el sector minero o industrias relacionadas.
  • Inglés Intermedio (B2)
  • Capacidad para trabajar en equipo, pensamiento analítico, atención al detalle, y orientación a resultados con compromiso en entregar soluciones de calidad que agregan valor.

Competencias y Habilidades Deseables

Es valorado contar con habilidades complementarias que potencien el impacto del rol, tales como:

  • Experiencia previa en industrias de minería o sectores industriales similares, aportando contexto y comprensión profunda de los requerimientos del negocio.
  • Conocimientos en otras herramientas de visualización o BI adicionales a Power BI, como Tableau o QlikView.
  • Familiaridad con metodologías ágiles para gestión de proyectos y desarrollo de soluciones analíticas.
  • Capacidad para comunicar hallazgos técnicos a audiencias no técnicas, facilitando la adopción de soluciones basadas en datos.
  • Interés por la innovación tecnológica y aprendizaje continuo en el ámbito de ciencia de datos y análisis avanzado.

Que ofrecemos

  • Una carrera en tecnología y analítica avanzada, con oportunidades de crecimiento y especialización.
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista Senior en ETL Powercenter
  • BC Tecnología
  • Santiago (Hybrid)
SQL ETL Power Center Agile Methodologies
BC Tecnología es una consultora de TI que ofrece servicios especializados en diferentes áreas tecnológicas. Con seis años de experiencia, brindamos soluciones personalizadas en consultoría, formación de equipos ágiles, outsourcing y desarrollo de proyectos para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque está orientado a metodologías ágiles, cambio organizacional y desarrollo de productos, siempre con un claro enfoque en la satisfacción y necesidades del cliente.
El área de integración de datos es una pieza clave dentro de nuestra estructura, apoyando a clientes en la gestión eficiente y segura de su información mediante el diseño y desarrollo de procesos ETL que permiten la migración y transformación efectiva de datos en entornos complejos.

Find this vacancy on Get on Board.

Responsabilidades principales

Como especialista senior en ETL utilizando PowerCenter, serás responsable de analizar y diseñar soluciones técnicas que permitan la integración eficiente y precisa de datos para nuestros clientes. Trabajarás en la creación y desarrollo de flujos de trabajo ETL asegurando que los procesos de extracción, transformación y carga cumplan con los estándares de calidad y tiempos definidos.
Además, apoyarás la mejora continua de los procesos existentes y brindarás soporte técnico y documentación detallada para facilitar la operatividad y manejo de los usuarios funcionales. Mantendrás una comunicación estrecha con otros equipos técnicos para coordinar e integrar soluciones en entornos multicapa y complejos, siempre con un enfoque colaborativo y orientado a resultados.
  • Análisis funcional y técnico de requerimientos para integración de datos.
  • Diseño y desarrollo de flujos ETL con PowerCenter.
  • Implementación y mejora continua de procesos de ETL.
  • Elaboración de documentación técnica y soporte a usuarios funcionales.
  • Coordinación con equipos técnicos multidisciplinarios.

Perfil y requisitos técnicos

Buscamos un profesional con al menos 3 años de experiencia comprobada en desarrollo de procesos ETL utilizando PowerCenter, capaz de diseñar soluciones técnicas sólidas y eficientes para la integración de datos. Es fundamental contar con un conocimiento profundo en SQL y experiencia en diseño de soluciones de integración en entornos reales y desafiantes.
El candidato ideal demostrará habilidades en análisis funcional y técnico, autonomía para solucionar problemas técnicos bajo presión, y capacidad para trabajar en equipo, con un fuerte enfoque a la calidad y resultados. Además, se valorará experiencia previa o conocimientos en Control-M para la orquestación de procesos y preferiblemente en el sector financiero o bancario, dado que nuestros clientes principales provienen de este rubro.
Se requieren también competencias interpersonales que faciliten la comunicación con usuarios funcionales y técnicos, adaptabilidad a metodologías ágiles y capacidad de documentación clara y efectiva.

Conocimientos y experiencias valoradas

Será altamente valorado el conocimiento en herramientas de automatización de tareas como Control-M, que aportan a la eficiencia del proceso ETL y su correcta ejecución programada. También se considerará una ventaja tener experiencia o familiaridad previa con el sector financiero y bancario, lo que facilitará la comprensión de los requisitos específicos de la industria y normativas asociadas.
Habilidades adicionales en gestión de proyectos, manejo de metodologías ágiles y experiencia colaborando en equipos multidisciplinarios también serán consideradas importantes para el desempeño óptimo del puesto.

Beneficios y ambiente laboral

Aunque el anuncio no menciona específicamente beneficios o condiciones particulares, en BC Tecnología ofrecemos un ambiente colaborativo donde valoramos el compromiso, el aprendizaje continuo y el trabajo en equipo. Promovemos el desarrollo profesional mediante asignación en proyectos desafiantes con clientes de alto nivel en el sector financiero y otros sectores variados.
Como consultora orientada a soluciones ágiles y a la satisfacción del cliente, fomentamos la integración y coordinación entre equipos, lo que se traduce en oportunidades de crecimiento y aprendizaje constante.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2400 Tiempo completo
Data Engineer
  • Muruna
  • Lima (Hybrid)
Azure ETL RabbitMQ Data lake
Muruna es una empresa chilena con amplia experiencia en el sector financiero, especializada en proveer servicios tecnológicos y staffing altamente especializados. Nos distinguimos por brindar soluciones innovadoras y contar con un equipo profesional orientado a la excelencia. Actualmente, el equipo de datos se enfoca en construir y mantener infraestructuras de datos modernas y escalables para clientes del sector financiero, utilizando las últimas tecnologías en cloud computing y análisis de datos. Nuestra propuesta está enfocada en entregar soluciones robustas que impulsan la toma de decisiones basada en datos, aprovechando plataformas de nube y arquitecturas de datos avanzadas como Medallion.

Apply at getonbrd.com without intermediaries.

Responsabilidades principales:

  • Diseño de arquitecturas de datos: Definir, diseñar y documentar flujos de datos, modelos lógicos y estándares de calidad en plataformas cloud como AWS y Azure, asegurando que la infraestructura soporte escalabilidad y seguridad.
  • Implementación de pipelines ETL/ELT: Construir, monitorear y optimizar canalizaciones de ingestión, transformación y carga de datos para garantizar la integridad y disponibilidad de la información en los sistemas destino.
  • Modelado y almacenamiento: Diseñar esquemas eficientes tanto en bases de datos relacionales como NoSQL; gestionar y administrar data lakes y data warehouses para una correcta organización y accesibilidad de los datos.
  • Monitoreo y optimización: Establecer métricas clave de rendimiento, configurar alertas proactivas y ejecutar procesos de tuning para asegurar la eficiencia, disponibilidad y calidad continua de las soluciones implementadas.

Descripción del perfil y habilidades requeridas:

Buscamos un Data Engineer con una experiencia sólida de 3 a 5 años en el diseño, construcción y mantenimiento de soluciones de datos escalables en ambientes cloud. El candidato ideal posee conocimientos profundos en plataformas AWS y Azure, con práctica comprobada en el uso de Databricks y Spark SQL para procesamiento de datos. Debe estar familiarizado con arquitecturas de datos modernas, especialmente el patrón Medallion (capas bronze, silver y gold) que permite una gestión eficiente y escalable de diferentes niveles de datos.
Se valoran altos estándares en gobernanza, seguridad y calidad de datos, aplicando buenas prácticas para proteger la integridad y privacidad de la información. El candidato debe contar con habilidades analíticas, pensamiento crítico y capacidad para resolver problemas complejos de forma autónoma y en equipo. Además, es fundamental la capacidad de documentar procesos y comunicarse eficazmente con equipos multidisciplinarios para alinear objetivos tecnológicos con las necesidades del negocio.

Conocimientos y tecnologías deseables:

Se consideran un plus pero no excluyentes las siguientes habilidades adicionales: experiencia con tecnologías de streaming y mensajería como Apache Kafka y RabbitMQ, así como manejo de procesamiento en tiempo real usando Apache Flink o Spark Streaming. También es deseable experiencia en el desarrollo de APIs REST para integraciones y la orquestación de workflows complejos.
Las certificaciones oficiales en AWS, Azure o Databricks son altamente valoradas como indicativo del compromiso con la excelencia y actualización tecnológica, aunque no son un requisito obligatorio para la postulación.

Beneficios:

Ofrecemos una modalidad híbrida 4x1, que requiere la presencia en oficina dos días por semana, siendo el miércoles uno de ellos. Nuestras oficinas están ubicadas en Las Condes, Santiago de Chile, equipadas con infraestructura moderna que favorece un entorno de trabajo dinámico y colaborativo.
Promovemos un equilibrio saludable entre la vida laboral y personal al permitir flexibilidad para trabajar de forma remota los días restantes. Valoramos el desarrollo profesional continuo e incentivamos la obtención de certificaciones y formación en tecnologías vanguardistas, especialmente en el ecosistema Google, gracias a nuestras alianzas estratégicas.
El ambiente laboral es innovador y participativo, fomentando el trabajo en equipo, la iniciativa individual y la motivación permanente mediante beneficios competitivos que garantizan que nuestro talento se sienta valorado e integrado como parte fundamental del proyecto empresarial.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Muruna provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Business Intelligence Developer
  • TECLA
Agile MySQL PostgreSQL Oracle

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

This job offer is available on Get on Board.

Job Details:

We are seeking a Business Intelligence Developer to contribute to the design, development, and implementation of data visualization solutions. This role provides an exciting opportunity to work with and learn about downstream data visualization tools to enable insights and decisions across the organization. This role will aid in the visualization of data across R&D, Finance, and Manufacturing workflows.

Responsibilities:

  • Collaborate within a highly cross-functional biotechnology data solutions team to deliver decision-enabling dashboards for R&D, Finance and Manufacturing.
  • Engage with stakeholders to understand best-case data visualization solutions, using dashboarding tools such as PowerBI, Tableau, Spotfire, etc.
  • Extract and source data from custom systems from third parties, such as TOTVS, and from data warehouses.
  • Follow Agile methodology to deliver reports and dashboards.
  • Prepare documentation and conduct functionality tests.
  • Clearly articulate and communicate results, solutions, and vision to stakeholders and managers.

Required Qualifications:

  • Bachelor’s degree in Computer Science, Information Technology, Biotechnology, or equivalent.
  • 2+ years working experience in a scientific solutions, commercial or public research organization handling a wide variety of datasets.
  • 5+ years of experience developing dashboards from complex data models using PowerBI, or mixed experience with an alternate data visualization tool such as Tableau.
  • Familiarity with at least two database design and querying languages such as SQL Server, MySQL, PostgreSQL, or Oracle.
  • Experience with ERP systems such as TOTVS ERP, D365 F&O, Salesforce etc.
  • Agility and a solution-oriented mindset.
  • Demonstrated commitment to maintaining a high level of ownership and seeing assignments through to completion.
  • Excellent communication skills with a diverse set of stakeholders.
  • Fluent in English.

Preferred Qualifications:

  • Master’s degree in Computer Science, Information Technology, Life Science, Biotechnology, or equivalent.
  • Hands-on data aggregation, cleaning, normalization and visualization experience within the Microsoft ecosystem.
  • Knowledge of financial, manufacturing and lab processes and operations.
  • Highly proficient in Excel, with experience developing functions and VBA macros.
  • Ability to interact with both data and non-data personnel to apply an off-the-shelf data management system based on a collected set of user requirements.
  • Experience in writing software documentation and conducting testing.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • The opportunity to work with a fast-growing company driving digital transformation across enterprise IT infrastructure and operations.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.

*Please note our company is only looking for full-time dedicated team members who are eager to fully integrate within our team.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Applications: getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2100 Tiempo completo
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

Apply to this job through Get on Board.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista / Desarrollador ETL Powercenter
  • coderslab.io
  • Santiago (Hybrid)
SQL ETL Power Center Resolución de problemas

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Analista / Desarrollador ETL PowerCenter para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Originally published on getonbrd.com.

Job functions

  • Realizar el análisis, diseño y desarrollo de procesos ETL utilizando PowerCenter.
  • Participar en el relevamiento de requerimientos técnicos y funcionales.
  • Colaborar con equipos multidisciplinarios para garantizar la correcta implementación de soluciones.
  • Ejecutar pruebas y validaciones para asegurar la calidad de los desarrollos.
  • Documentar procesos, flujos y procedimientos técnicos asociados a las soluciones implementadas.

Qualifications and requirements

🎯 Requisitos

  • Mínimo 3 años de experiencia comprobable en desarrollo con PowerCenter.
  • Sólidas habilidades en análisis funcional y técnico.
  • Dominio de SQL para consultas y optimización de procesos.
  • Conocimientos deseables en Control-M para automatización y scheduling de tareas.
  • Capacidad para desenvolverse en entornos de alta demanda y cambios constantes.

🧠 Habilidades blandas valoradas

  • Alta capacidad de análisis y resolución de problemas.
  • Trabajo en equipo y colaboración efectiva con otras áreas.
  • Buena comunicación interpersonal.
  • Manejo de la presión y actitud resiliente frente a desafíos.

Conditions

Hibrido en Santiago de Chile.
Renta en pesos Chilenos

POSTULAR VÍA WEB Ver trabajo
Gross salary $1300 - 1500 Tiempo completo
Especialista en Soporte y Manejo de Datos
  • BC Tecnología
  • Santiago (In-office)
Soporte técnico Technical Support Agile Methodologies MS Excel

BC Tecnología es una consultora líder en servicios IT con amplia experiencia en múltiples áreas tecnológicas. Desde hace más de seis años, nos especializamos en diseñar y ejecutar soluciones innovadoras alineadas a las necesidades de nuestros clientes. Nuestra oferta incluye consultoría, formación de equipos ágiles, outsourcing de profesionales y desarrollo de proyectos en sectores como servicios financieros, seguros, retail y gobierno. En este contexto, buscamos consolidar un proyecto de soporte y manejo de datos clave para asegurar la calidad y el correcto funcionamiento operativo dentro de un entorno dinámico y exigente.

This job offer is on Get on Board.

Responsabilidades principales

  • Distribuir, depurar y administrar bases de datos usando Excel, asegurando que la información esté organizada y sea accesible para los distintos equipos.
  • Validar la calidad de los datos, limpiando y eliminando registros incorrectos, duplicados o inconsistentes para mantener la integridad de la información.
  • Apoyar en la administración y monitoreo de cámaras de seguridad, garantizando el correcto funcionamiento de los sistemas asociados.
  • Asegurar el orden, precisión y entrega oportuna de la información al equipo relevante para facilitar la toma de decisiones y operaciones diarias.

Este rol es fundamental para garantizar la calidad de los datos y la eficiencia operativa de la empresa, siendo un punto clave dentro del soporte interno y la gestión administrativa.

Requisitos y habilidades necesarias

Buscamos un perfil con habilidades intermedias a avanzadas en Microsoft Excel, incluyendo manejo de filtros, tablas dinámicas y validaciones, para poder administrar bases de datos complejas de manera eficiente.

Es imprescindible contar con una alta atención al detalle, ser ordenado y prolijo en la gestión de la información, asegurando la precisión y calidad de los datos manejados.

El candidato ideal debe mostrar capacidad para trabajar en equipo, colaborar activamente y resolver problemas cotidianos relacionados con el manejo y procesamiento de datos.

Se valorará positivamente la experiencia previa en roles administrativos o de soporte técnico, que implique trato con bases de datos o sistemas internos de información.

El puesto requiere responsabilidad, habilidades comunicativas claras y disposición para cumplir con tareas que impactan directamente en el flujo operativo del área.

Competencias y experiencia adicional valoradas

Se considerará un plus contar con experiencia específica en administración de cámaras de seguridad o sistemas de vigilancia, así como conocimientos básicos para solucionar inconvenientes relacionados.

Conocimiento o familiaridad con metodologías ágiles dentro de entornos de trabajo colaborativos puede ser un factor diferenciador en el desempeño del candidato.

Además, la capacidad de adaptarse a cambios organizacionales y la proactividad para proponer mejoras en los procesos de manejo de datos serán altamente valoradas.

Beneficios y condiciones laborales

Ofrecemos un contrato indefinido, garantizando estabilidad y continuidad. El trabajo se desempeña de manera presencial en la oficina ubicada en Recoleta, fomentando la colaboración directa con el equipo.

Promovemos el aprendizaje continuo a través del trabajo en un equipo diverso y comprometido con la calidad y los resultados, apoyados en metodologías ágiles.

Este puesto resulta ideal para quienes disfrutan trabajar en ambientes dinámicos, con retos tecnológicos y donde pueden ver el impacto directo de su labor.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer with Snowflake Expertise
  • Moventi
Python Agile SQL Business Intelligence
At Moventi, we focus on helping organizations lead with innovation through technology. Our team consists of a multidisciplinary group of talents working together to adopt new technologies, methodologies, and collaborative work styles that enhance professional growth and project impact. The office is centrally located, equipped with parking, recreational areas for break times, and agile meeting spaces to foster teamwork across different professional profiles. Our organizational culture emphasizes transparency, strong coordination, commitment, willingness to take risks, and daily innovation with original ideas that generate positive impact.

Apply directly through getonbrd.com.

Job Responsibilities and Core Functions

We are looking for a Data Engineer skilled in Snowflake, Airflow, Python, SQL, and Tableau who will play a key role in designing, developing, and maintaining efficient data pipelines and workflows. The primary goal is to enable reliable data processing and visualization to support business intelligence efforts.
  • Design, implement, and optimize data pipelines using Airflow and Python for automated and scalable data processing.
  • Develop and maintain Snowflake data warehouses ensuring data integrity, performance, and security.
  • Create SQL queries and scripts for data preparation, transformation, and loading processes.
  • Build and maintain interactive, insightful dashboards and reports in Tableau to provide actionable insights to stakeholders.
  • Collaborate cross-functionally with data analysts, business users, and other engineering teams to understand data needs and translate them into technical solutions.
  • Troubleshoot, monitor, and optimize existing data workflows and dashboards to improve performance and reliability.

Required Skills and Experience

The ideal candidate will have proven hands-on experience working in data engineering roles, particularly with Snowflake as the data warehousing solution. Strong proficiency in Python and Airflow is essential for orchestrating data workflows. Advanced SQL skills are critical for querying and managing complex datasets. Experience in building Tableau dashboards to enable data visualization and reporting is necessary to communicate insights effectively.
Beyond technical expertise, candidates should be proactive, detail-oriented, and have strong problem-solving capabilities. Excellent communication skills and the ability to work collaboratively in a team environment are vital to succeed in this role. We value professionals who embrace transparency and are committed to innovation and continuous learning.

Desirable Skills and Traits

Experience with cloud environments and other data orchestration tools will be advantageous. Familiarity with additional BI tools or programming languages can enhance your profile. Prior experience in agile methodologies and working in multidisciplinary teams will help you excel and adapt quickly within Moventi’s culture.

Benefits and Work Environment

We are dedicated to the professional development of our team members by offering challenging projects and continuous learning opportunities. From your first day, you will have formal employment as a contractor and can enjoy a birthday free day to celebrate your special moment.
  • Opportunities for ongoing professional growth and learning
  • Formal employment contract starting day one as a contractor
  • Birthday free day to celebrate you
  • Engagement in challenging and impactful projects

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero Analítica y Gestión Financiera
  • Agrosuper
  • Rancagua (Hybrid)
Python Analytics Data Analysis SQL

En Agrosuper, tenemos la misión de llevar alimentos de la más alta calidad a las familias de Chile y el mundo. Nos mueve el deseo de alimentar el talento y las ganas de crecer constantemente. Buscamos mejorar y fomentar un entorno donde todos disfruten lo bueno de la vida, por lo que valoramos a las personas, que son el alma de nuestra organización .

Te invitamos a participar del proceso de selección para el cargo Ingeniero Analítica y Gestión Financiera. Buscamos incorporar profesionales de formación Ingeniero Civil, para trabajar en la Gerencia de Planificación y Gestión de Administración y Finanzas, y desempeñarse en la ciudad de Rancagua.

El objetivo del cargo es integrar habilidades en data science y desarrollo de proyectos tecnológicos, proporcionando soporte estratégico y analítico a los equipos de la Gerencia de Planificación y Gestión; Además de colaborar estrechamente con las áreas de excelencia operacional, transformación digital y tecnología & datos.

This job is exclusive to getonbrd.com.

Funciones del cargo

1 .Desarrollo de Modelos Predictivos y Prescriptivos: Crear modelos que integren variables financieras y operativas en coordinación con los equipos de planificación y control de gestión para mejorar las proyecciones.
2. Asesoría Técnica en Análisis y Sensibilización de Escenarios: Proveer asesoría técnica para el análisis de escenarios, detección de patrones y optimización de proyecciones financieras.
3. Aseguramiento de la Calidad e Integridad de los Datos: Garantizar la calidad e integridad de los datos, involucrando a los equipos pertinentes para obtener resultados precisos y confiables.
4. Diseño e Implementación de Paneles y Reportes Interactivos: Diseñar e implementar paneles y reportes interactivos para monitorear y controlar KPIs financieros, operativos y estratégicos.
5 Consolidación y Transformación de Datos: Consolidar y transformar datos de diversas fuentes en análisis integrales, trabajando con los equipos involucrados para decisiones basadas en información confiable.
6 Liderazgo en Proyectos de Transformación Digital y Automatización: Liderar iniciativas de transformación digital y proyectos de automatización en procesos recurrentes como cierre mensual y proyecciones.
7. Evaluación de Viabilidad Financiera y Técnica de Proyectos: Evaluar la viabilidad financiera de proyectos de inversión y la viabilidad técnica de proyectos de transformación, proporcionando herramientas de análisis a los equipos.
8.Soporte Analítico y Promoción de Cultura Data-Driven: Colaborar con equipos de planificación financiera y gestión estratégica, asesorar en la formulación de proyectos y evaluaciones del negocio, y promover una cultura basada en datos.

Requerimientos del cargo

1.Ingeniero Civil
2.Experiencia en el uso de herramientas de visualización de datos (ej.: Power BI, Tableau).
3. Dominio de herramientas de análisis de datos (ej. Python, R o SQL).
4. Disponibilidad para trabajar en Rancagua 4x1.
5. Deseable experiencia en gestión financiera.

Condiciones

Te mostramos algunos de nuestros beneficios:
Planes de crecimiento y desarrollo.
Capacitaciones y becas de estudios.
Convenios con distintas instituciones.
Bonos asociados al desempeño.

Computer provided Agrosuper provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Technical Business Analyst
  • Nisum Latam
Agile SQL Business Intelligence Scrum

Nisum is a leading global digital commerce firm headquartered in California, with services spanning digital strategy and transformation, insights and analytics, blockchain, business agility, and custom software development. Founded in 2000 with the customer-centric motto “ Building Success Together® ,” Nisum has grown to over 1,800 professionals across the United States, Chile, Colombia, India, Pakistan and Canada.


Nisum is an Equal Opportunity Employer and we are proud of our ongoing efforts to foster diversity and inclusion in the workplace.

Apply to this job from Get on Board.

What You’ll Do

  • Understand and define complex business needs and translate them into technical requirements.
  • Act as a liaison between business stakeholders and technical teams to ensure clear understanding and delivery of solutions.
  • Drive continuous process improvements across projects and teams.
  • Define, document, and manage functional requirements, user stories, use cases, business cases, and BRDs. Engage stakeholders through effective communication, elicitation of requirements, and impactful presentations.

Qualifications and requirements

  • You must reside in Chile or Colombia
  • Advanced english skills
  • 4+ years of relevant experience
  • Strong experience with Tableau, Power BI, and SQL.
  • Understanding of how a Scrum team operates, including the creation and management of user stories and Business Requirements Documents (BRDs).
  • Ability to define and understand business needs clearly and translate them into functional requirements.

Critical Skills

  • Analytical Thinking: Business process modeling, root cause analysis
  • Communication: Stakeholder engagement, requirements elicitation, presentation skills
  • Documentation: Business cases, user stories, use cases, BRDs
  • Problem Solving : Gap analysis, SWOT analysis, decision modeling
  • Domain Knowledge: Strong understanding of industry standards, business operations, and best practices
  • Tools: MS Excel, Visio, JIRA, Confluence, BPM tools, Tableau/Power BI (for data insights)

What can we offer you?

  • Belong to an international and multicultural company that supports diversity.
  • Be part of international projects with a presence in North America, Pakistan, India and Latam.
  • Work environment with extensive experience in remote and distributed work, using agile methodologies.
  • Culture of constant learning and development in current technologies.
  • Pleasant and collaborative environment, with a focus on teamwork.
  • Access to learning platforms, Google Cloud certifications, Databricks, Tech Talks, etc.
  • Being part of various initiatives and continuous participation in internal and external activities of innovation, hackathon, technology, agility, talks, webinars, well-being and culture with the possibility not only to participate but also to be an exhibitor.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2500 Tiempo completo
Analista Senior BI
  • BC Tecnología
  • Santiago (Hybrid)
Analytics Excel SQL Business Intelligence
BC Tecnología es una consultora de Servicios IT con más de seis años de experiencia ofreciendo soluciones tecnológicas adaptadas a las necesidades específicas de sus clientes, que incluyen sectores como servicios financieros, seguros, retail y gobierno. Nos especializamos en la formación de equipos ágiles para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Además, administramos portafolios de proyectos, realizamos outsourcing y llevamos a cabo selección de profesionales especializados, siempre con un enfoque claro en el cliente, metodologías ágiles y el desarrollo continuo de productos de alta calidad.

Official job site: Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener dashboards e informes utilizando Power BI para respaldar decisiones estratégicas de negocio.
  • Realizar análisis de datos orientados a identificar oportunidades de mejora y resolver problemáticas comerciales, apoyando diferentes áreas de la organización.
  • Colaborar estrechamente con varias unidades de negocio para recopilar requerimientos y proponer soluciones analíticas basadas en datos.
  • Fomentar la adopción y uso eficiente de herramientas analíticas, promoviendo la alfabetización digital dentro de la empresa.
  • Implementar buenas prácticas en el modelamiento de datos, diseño visual de informes y validación de fuentes confiables para garantizar la precisión de la información.
  • Participar activamente en iniciativas de automatización y mejora continua de reportes para optimizar procesos y reducir tiempos.

Requisitos

Buscamos un Analista Senior BI con dominio avanzado en Power BI, especialmente en DAX, modelamiento de datos y visualización efectiva de información. Es fundamental tener conocimientos sólidos en SQL para extracción y manipulación eficiente de datos, así como habilidades avanzadas en Excel para el análisis complementario. Se valorará experiencia adicional con herramientas de visualización como Tableau, que aporte diversidad en la presentación de datos, y conocimientos en plataformas en la nube tales como Google BigQuery o AWS Redshift, que ayuden a gestionar grandes volúmenes de información.
Además, el candidato debe contar con fuertes habilidades de comunicación para interactuar efectivamente con clientes internos y equipos multifuncionales, tener orientación al cliente para entender sus necesidades y una mentalidad analítica que permita transformar datos en insights estratégicos. La capacidad para trabajar en entornos colaborativos, con metodologías ágiles y una proactividad constante será clave para el éxito en este rol.

Conocimientos deseables

Serán altamente valorados conocimientos y experiencia previa en Tableau, que permita complementar y diversificar las soluciones de visualización de datos. Asimismo, el manejo de plataformas de datos en la nube como Google BigQuery o AWS Redshift es deseable para facilitar el procesamiento y análisis de grandes volúmenes de datos desde infraestructuras modernas y escalables. Estas habilidades aportarán mayor flexibilidad y profundidad a las soluciones de inteligencia de negocios en la organización.

Beneficios

Ofrecemos un contrato inicial para un proyecto de dos meses, con posibilidad de extensión dependiendo del desempeño y las necesidades del proyecto. La modalidad de trabajo es híbrida, combinando la flexibilidad del trabajo remoto con la colaboración presencial. Promovemos un ambiente de aprendizaje continuo apoyado en metodologías ágiles y un equipo diverso enfocado en la calidad y los resultados. Este proyecto es ideal para quienes disfrutan enfrentar retos tecnológicos en ambientes dinámicos y críticos, donde el impacto de su trabajo es tangible.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2500 Tiempo completo
Data Engineer Semisenior / Senior
  • Lisit
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software enfocados en proporcionar herramientas de automatización y optimización que impulsan la eficiencia operativa de sus clientes. Trabajamos con un enfoque constante en la innovación y la pasión por superar desafíos tecnológicos. Nuestra propuesta diferencial radica en un acompañamiento consultivo integral, utilizando diversas herramientas y prácticas tecnológicas que permiten a los clientes alcanzar con éxito sus objetivos de transformación digital.

Find this vacancy on Get on Board.

Responsabilidades y Objetivos del Puesto

Como Data Engineer en Lisit, serás responsable de diseñar, construir y mantener pipelines de datos robustos que faciliten la integración entre múltiples sistemas, asegurando un modelado de datos eficiente y alineado con los requerimientos del negocio. Te encargarás de implementar soluciones escalables utilizando herramientas de Infraestructura como Código (IaC) y gestionar el versionamiento del código para garantizar calidad y trazabilidad.

Participarás activamente en la implementación y optimización de soluciones cloud sobre plataformas como Google Cloud Platform (GCP) y Azure, utilizando productos específicos como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions. La elaboración y mantenimiento de procesos ETL/ELT serán clave para asegurar el flujo y la calidad de los datos.

Trabajarás colaborativamente con equipos multidisciplinarios, manteniendo una comunicación fluida y contribuyendo a la innovación continua en los proyectos, siempre con foco en la entrega de valor y el cumplimiento de los objetivos tecnológicos y de negocio.

Requisitos y Habilidades Exigidas

  • Mínimo 3 años de experiencia profesional en manejo y procesamiento de datos, enfocándose en la generación de pipelines, integración de sistemas y modelado de datos.
  • Dominio intermedio a avanzado en lenguajes de programación como Python y Spark, con capacidad para desarrollar y optimizar scripts y procesos complejos.
  • Sólidos conocimientos intermedios a avanzados en Infraestructura como Código (IaC), especialmente usando Terraform.
  • Amplia experiencia con sistemas de versionamiento de código, preferentemente GitHub y GitLab, garantizando buenas prácticas de control y colaboración.
  • Conocimiento avanzado en SQL y bases de datos relacionales y no relacionales, capaces de diseñar consultas complejas y optimizar el rendimiento.
  • Familiaridad intermedia a avanzada con plataformas cloud como Google Cloud Platform y Microsoft Azure, así como con herramientas específicas como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions.
  • Experiencia avanzada con herramientas ETL/ELT, destacándose el uso de Azure Data Factory, siendo este un requisito excluyente.
  • DESEABLE: Certificaciones relevantes en Data Engineering valoradas positivamente, incluyendo Microsoft Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader y Google Cloud Associate Cloud Engineer.
  • DESEABLE: Conocimientos deseables en Microsoft Power BI y Microsoft Fabric para complementar la visualización y análisis de datos.

Además, buscamos profesionales con capacidad analítica, buenas habilidades comunicativas, actitud proactiva y capacidad para trabajar en equipo, orientados a la mejora continua y la entrega eficiente y efectiva de soluciones.

Conocimientos y Certificaciones Deseables

Valoraremos positivamente candidatos que posean certificaciones oficiales en ingeniería de datos como Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader, o Google Cloud Associate Cloud Engineer que demuestren compromiso con la actualización continua. También será un plus contar con conocimientos en Microsoft Power BI y Microsoft Fabric, herramientas que aportan valor agregado para el manejo y visualización avanzada de datos, y que complementan el enfoque técnico del puesto.

Beneficios y Ambiente Laboral

Ofrecemos la oportunidad de integrarte a proyectos tecnológicos desafiantes y de largo plazo, trabajando dentro de un equipo técnico altamente colaborativo que promueve un ambiente profesional y amigable. Nuestro entorno está pensado para facilitar la comunicación constante y el compromiso del equipo, con un estilo de trabajo 100% remoto que favorece la conciliación entre la vida personal y profesional.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Lisit provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer GCP
  • Factor IT
Python Data Analysis SQL NoSQL

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Exclusive offer from getonbrd.com.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Architect Semi Senior Advanced
  • Improving South America
Python SQL Azure ETL

Leniolabs_ es ahora Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply directly through getonbrd.com.

Job functions

En mproving South America buscamos un Data Architect Senior para sumarse a este equipo multicultural. Diseñarás modelos y pipelines ETL/ELT en Azure, optimizarás SQL de alto rendimiento y liderarás mejores prácticas de calidad y gobierno de datos, colaborando de forma 100 % remota con equipos técnicos y de negocio. Si te apasiona transformar datos complejos en decisiones estratégicas, este desafío es para vos.

Qualifications and requirements

  • Alrededor de8 años en desarrollo/arquitectura de datos,
  • Nivel de inglés intermedio–avanzado
  • .SQL avanzado (tuning, stored procs, optimización de queries)
  • Modelado de datos & Data Warehouse (diseño lógico/físico, diagramado)
  • ETL/ELT & Orquestación: SSIS / Azure Data Factory, pipelines CI/CD (Azure DevOps, Git)
  • Python + Pandas / PySpark para profiling y data wrangling
  • Cloud Azure (Storage, Synapse, contenedores)
  • Power BI (visualización, mejores prácticas de reporting)
  • Conocimientos de data quality, data retention & compliance
  • Experiencia diseñando data flows y migraciones entre sistemas legacy/API

Conditions

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de Datos para Asistente Conversacional IA
  • Lisit
Python PostgreSQL SQL MongoDB
Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software que brindan herramientas de automatización y optimización para sus clientes, manteniendo un fuerte enfoque en la innovación y la pasión por resolver desafíos tecnológicos complejos. Buscamos incorporar talento para trabajar en un proyecto puntero que consiste en el desarrollo de un asistente conversacional inteligente basado en inteligencia artificial.
El proyecto se centra en la construcción de un sistema capaz de procesar lenguaje natural (NLP) utilizando datos de diversas fuentes, para lo cual se requiere una infraestructura de datos sólida, escalable y fiable que permita alimentar los modelos inteligentes de lenguaje y mejorar continuamente la interacción conversacional, aportando valor a nuestros clientes mediante soluciones eficientes y tecnológicamente avanzadas.

Find this vacancy on Get on Board.

Descripción del rol y responsabilidades

Como Ingeniero/a de Datos en este proyecto, serás responsable de diseñar, construir y mantener pipelines ETL/ELT que permitan la ingesta y procesamiento eficiente de datos diversos y no estructurados, como chats, correos electrónicos y logs, transformándolos en formatos precisos y útiles para el entrenamiento y operación de modelos de procesamiento de lenguaje natural (NLP).
Asimismo, integrarás fuentes de datos externas a través de APIs RESTful, gestionarás bases de datos relacionales como PostgreSQL y NoSQL como MongoDB, y optimizarás el almacenamiento de grandes volúmenes de datos en soluciones cloud como S3, BigQuery o Redshift. También garantizarás la calidad, trazabilidad y gobernanza de los datos para mantener la confiabilidad del sistema.
El rol incluye implementar medidas de anonimización y protección para los datos sensibles, asegurando el cumplimiento de normativas vigentes en materia de privacidad y manejo ético de la información, y colaborarás con el equipo multidisciplinario para cumplir con los objetivos tecnológicos y de negocio del proyecto.

Requisitos y habilidades esenciales

Buscamos un profesional con experiencia sólida en Python, utilizando librerías especializadas como Pandas, PySpark o Dask para el procesamiento y transformación de datos a gran escala. Es necesario tener un dominio avanzado en SQL y experiencia práctica con bases de datos relacionales y NoSQL, especialmente PostgreSQL y MongoDB.
Se requiere conocimiento comprobable en herramientas de orquestación de flujos de trabajo de datos, como Apache Airflow, y manejo de almacenamiento en la nube en plataformas como Azure, AWS S3 o Google Cloud Storage (GCS).
Es fundamental contar con experiencia en el procesamiento de datos no estructurados aplicados a modelos de NLP y manejo adecuado de APIs RESTful para la integración de diferentes fuentes y servicios.
Además de las habilidades técnicas, valoramos competencias orientadas a la gestión minuciosa de la calidad y gobernanza de datos, capacidad analítica y pensamiento crítico para mantener estándares rigurosos que garanticen la efectividad del asistente conversacional inteligente.

Conocimientos y experiencia deseables

Se valorará experiencia previa en proyectos relacionados con asistentes virtuales o tecnologías de procesamiento de lenguaje natural (NLP), así como familiaridad con prácticas DataOps para la gestión eficiente de pipelines y control de versiones de datos.
El conocimiento de normativas internacionales de privacidad y protección de datos, como GDPR e HIPAA, junto con técnicas avanzadas de anonimización, será un plus muy importante para desempeñarse con éxito en el cargo.

Beneficios y ambiente laboral

Ofrecemos la oportunidad de participar en proyectos tecnológicos desafiantes y de largo plazo dentro de un equipo técnico colaborativo, en un ambiente laboral amigable y profesional.

El trabajo es 100% remoto, lo cual fomenta la conciliación entre la vida personal y profesional sin perder la comunicación fluida y el compromiso con el equipo.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Data Engineer
  • Playbypoint
Python SQL Machine Learning Kafka
🏓 Senior Data Engineer
📍 Remote | Full-time
Join us in building the future of racquet sports.

🧠 About the Team & Project
At Playbypoint, we're on a mission to transform the racquet sports industry with powerful, intuitive software. From tennis to pickleball, our platform helps clubs thrive by elevating player engagement and simplifying operations. As part of our Data & Insights team, you’ll work alongside backend engineers, product leaders, and business stakeholders to turn raw data into actionable insights that shape our product strategy and operational decisions.
Our team plays a critical role in helping the company scale. We believe that better data leads to better decisions—and we're building the infrastructure to make that possible.

Apply only from getonbrd.com.

🔧 What You’ll Do

As a Senior Data Engineer, you'll design, develop, and maintain scalable data pipelines to support our real-time and batch analytics needs. You’ll take ownership of how data flows through our system, ensuring it’s clean, accessible, and reliable for use across engineering, product, and business teams.
You’ll:
  • Build and optimize data pipelines using Kafka, Airflow, and cloud-native tools.
  • Manage data lakes and warehouses using Apache Iceberg, Amazon S3, and ClickHouse or Snowflake.
  • Ensure data integrity and quality across all stages of our pipeline.
  • Collaborate closely with analysts and engineers to support key business metrics and machine learning workflows.
  • Contribute to internal tooling that improves data observability and developer experience.
Your success will be measured by the reliability, scalability, and performance of the data infrastructure you build—as well as your ability to empower others with trusted data.

✅ What We’re Looking For

We’re looking for someone who thrives in a fast-paced startup environment and is passionate about building systems that scale.
Required:
  • 5+ years of experience in Data Engineering
  • Strong experience with streaming technologies like Kafka
  • Proficiency in Python and SQL
  • Solid experience with workflow orchestration tools (e.g., Airflow)
  • Familiarity with OLAP databases such as Snowflake, Clickhouse, or Redshift
  • Experience managing data workflows in a cloud environment (preferably AWS)

Desirable skills

Nice to Have:
  • Experience with ClickHouse
  • Certifications in AWS, Snowflake, or similar platforms
  • Hands-on knowledge of DataOps or ML Ops at scale
  • Experience with LLMs &/or Agents building
  • Familiarity with data versioning and formats like Parquet, Iceberg, or Delta Lake

🌍 Why Playbypoint?

We're not just building tools—we're building a movement to connect people through the joy of sports. You’ll join a collaborative, ambitious team where your work directly impacts thousands of players and clubs across the world. Plus, we’re remote-first and flexible, so you can work from wherever you do your best thinking.
🎯 Ready to serve up your next challenge?
Apply now and help shape the future of racquet sports.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Company retreats Team-building activities outside the premises.
Computer provided Playbypoint provides a computer for your work.
Conference stipend Playbypoint covers tickets and/or some expenses for conferences related to the position.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Consultor/a de Datos en Azure – Power BI & Databricks
  • Factor IT
SQL Oracle Big Data Azure

En FactorIT, somos líderes en tecnología y soluciones de datos, trabajando con grandes empresas en sus procesos de transformación digital. Buscamos un/a Consultor/a de Datos que apoye a nuestras iniciativas de explotación de datos en una institución bancaria clave mientras implementamos soluciones innovadoras en Azure.

Nuestro objetivo es brindar a nuestros clientes servicios de analítica avanzada y transformación digital. Aquí, tendrás la oportunidad de participar en grandes proyectos que marcan la diferencia y promueven el uso estratégico de la información.

Applications: getonbrd.com.

Descripción del Rol

Estamos buscando a un/a Consultor/a de Datos en Azure, quien será fundamental en nuestra misión de optimizar el uso de datos dentro de la banca. Las responsabilidades incluyen:

  • Identificar oportunidades de explotación de datos junto a las áreas de negocio.
  • Desarrollar pipelines y modelos en Azure Databricks.
  • Diseñar y construir dashboards y reportes interactivos en Power BI.
  • Realizar talleres con usuarios del negocio para levantar requerimientos.
  • Acompañar a las áreas funcionales en la adopción de una cultura data-driven.
  • Traducir necesidades del negocio en soluciones técnicas sostenibles.
  • Documentar soluciones y reportes desarrollados.

Requisitos del Puesto

Solicitamos a un/a profesional con experiencia técnica en las siguientes áreas:

  • Experiencia comprobable en Azure Databricks (PySpark / Spark SQL).
  • Conocimiento avanzado en Power BI, cualquier experiencia en DAX, modelado y visualización es un plus.
  • Familiaridad con servicios de datos de Azure como Data Lake, Synapse y Data Factory.
  • Competencia en SQL, preferiblemente en Oracle y/o Azure SQL.

Además, el candidato ideal debe poseer excelentes habilidades comunicativas, siendo capaz de interactuar con usuarios no técnicos y traducir sus necesidades. Buscamos a una persona empática, colaborativa y proactiva que impulse la adopción de soluciones en un entorno de rápida transformación tecnológica.

Habilidades Adicionales Preferidas

Además de los requisitos mencionados, se valorará la experiencia previa en:

  • Proyectos de transformación digital o migraciones tecnológicas.
  • Sector bancario, seguros o industrias reguladas.

El dominio del español es excluyente, mientras que el inglés técnico para lectura y escritura es deseable.

Beneficios y Oportunidades

Ofrecemos un entorno laboral flexible, permitiendo equilibrar trabajo en oficina y remoto, adaptándonos a tus necesidades. Además de un salario competitivo basado en tu experiencia, contamos con:

  • Flexibilidad laboral y modalidad de trabajo remoto.
  • Capacitación continua en tecnologías emergentes enfocadas en inteligencia artificial y automatización.
  • Cultura inclusiva que fomenta la creatividad y la innovación.

Si te apasiona la tecnología y quieres unirte a un equipo innovador en expansión, ¡esta es tu oportunidad!

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
Data Engineer – Process Analysis (Mid Level)
  • Niuro
Python Excel Data Science Data Visualization
Niuro is a company dedicated to connecting projects with elite technological teams, collaborating with leading companies based in the United States. Our mission is to simplify the global acquisition of technology talent through innovative solutions that optimize efficiency and quality. We provide autonomous, high-performance technical teams that specialize in partnering with top-tier U.S. companies. Our focus is on enabling continuous professional growth by offering training in both technical and soft skills, as well as leadership development opportunities. We manage all administrative operations, including hiring, payroll, and training, so our teams can focus exclusively on delivering exceptional technical results. Through a collaborative environment and an emphasis on talent development, we strive to help our professionals realize their full potential.

Job opportunity published on getonbrd.com.

Key Responsibilities

As a Data Engineer specializing in process analysis, your role will focus on supporting and improving operational processes within industrial environments, with a particular emphasis on the hydrometallurgical sector. Your core responsibilities will include the collection and documentation of critical process parameters, continuous monitoring and control of variability in those process metrics, and the execution of detailed statistical and trend analyses. You will also be responsible for process balancing and inventory management, including maintaining inventories of strategic inputs and spare parts essential to operations. Additionally, you will generate comprehensive operational reports that drive informed decision-making and propose initiatives aimed at continuous process improvement. Your role involves collaboration on software development efforts that facilitate data analysis and process efficiency. Importantly, you will provide innovative suggestions based on data insights to enhance operational performance and drive forward-looking improvements across the industrial processes.

Requirements

Education: Candidates must hold a degree as a civil or applied engineer specializing in chemical, metallurgical, or mining engineering, or alternatively, a bachelor's degree in mathematics or physics.
Experience: Applicants should have at least one year of hands-on experience applying data science principles to hydrometallurgical or industrial process environments, demonstrating a solid understanding of industrial operations and data-driven analysis.
Technical Skills: Advanced programming abilities in Python and Visual Basic are essential for this role, accompanied by strong proficiency in Microsoft Office, especially Excel. Experience working with the PI System, including Asset Framework (AF) and Data Archive components, at a user level is crucial. Candidates must have a robust knowledge of data science methods and mathematical modeling techniques applicable to process improvement and analysis.
Other Requirements: Due to the nature of the role and collaboration needs, residence in Chile is mandatory.

Desirable Skills and Experience

While not explicitly stated, candidates with additional experience in advanced statistical software, data visualization tools, or knowledge of other process automation technologies would find their skills highly complementary to this role. Familiarity with other industrial data management systems or frameworks, along with a background in continuous improvement methodologies such as Six Sigma or Lean Manufacturing, would also be beneficial. Strong analytical problem-solving skills, adaptability in dynamic environments, and excellent communication abilities to translate technical data for operational teams would enhance effectiveness.

What We Offer

We provide involvement in impactful, technically rigorous industrial data projects that foster both professional growth and sectoral innovation. Our work environment is highly process-focused and technically solid, encouraging collaboration and continuous innovation. Niuro offers the flexibility of 100% remote work within Chile, allowing team members to work from the location that suits them best.
We are committed to supporting career development through ongoing training and leadership opportunities. After successfully completing a trial period, candidates receive stable full-time employment, reinforcing our long-term investment in talent. Joining Niuro also means becoming part of a global community dedicated to excellence in technology, all supported by robust administrative infrastructure to enable focus on impactful work.

Partially remote You can work from your home some days a week.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en Gobierno de Datos
  • Factor IT
  • Bogotá (In-office)
Artificial Intelligence Automation COBIT Data governance

FactorIT es una empresa líder en tecnología y soluciones de datos con presencia en ocho países latinoamericanos, enfocada en ofrecer proyectos regionales con impacto significativo en múltiples industrias. Nos especializamos en Data & Analytics, Transformación Digital e Inteligencia Artificial, trabajando con grandes empresas para impulsar su evolución tecnológica. El área de Gobierno de Datos es esencial dentro de nuestra estrategia para garantizar la calidad, seguridad y correcta gestión de la información empresarial, contribuyendo a que las organizaciones puedan tomar decisiones basadas en datos confiables y alineados con sus objetivos estratégicos. Esta vacante permite participar directamente en la promoción de una cultura organizacional basada en datos, así como en la definición e implementación de políticas claras que regulen su uso y cuidado en empresas multinacionales.

Job source: getonbrd.com.

Objetivo y responsabilidades del rol

Como Especialista en Gobierno de Datos, serás responsable de acompañar estratégicamente a los equipos internos y clientes para fortalecer la cultura organizacional orientada a la gestión efectiva de datos. Tus principales funciones incluirán:

  • Impulsar y promover la adopción de una cultura basada en datos, generando conciencia sobre su importancia en todos los niveles organizacionales.
  • Definir, diseñar e implementar políticas, lineamientos y estándares claros para la gestión y el gobierno de los datos empresariales.
  • Coordinar con diferentes áreas para asegurar el cumplimiento de dichas políticas y su alineación con los objetivos estratégicos.
  • Entregar productos y resultados tangibles y concretos relacionados con la gestión de datos, asegurando la calidad, integridad y seguridad de la información.
  • Colaborar presencialmente con equipos de alto nivel, facilitando la comunicación efectiva y el trabajo interdisciplinario.
  • Monitorear y reportar avances en las iniciativas de gobierno de datos para garantizar la obtención de resultados y el cumplimiento de metas.

Este rol demanda liderazgo, habilidades de comunicación y la capacidad de articular soluciones eficientes en entornos complejos y colaborativos.

Perfil requerido

Buscamos profesionales con experiencia comprobada en proyectos de Gobierno de Datos, que posean un profundo conocimiento de las mejores prácticas, marcos normativos y herramientas relacionadas con esta disciplina. El candidato ideal debe tener habilidades para trabajar de forma presencial y facilitar el trabajo colaborativo con equipos multidisciplinarios y de alto nivel dentro de organizaciones complejas.

Es imprescindible contar con la capacidad para diseñar e implementar políticas organizacionales que regulen la gestión de datos, asegurando su alineación con las necesidades del negocio y el cumplimiento normativo. Además, esta posición requiere una persona orientada a resultados, capaz de entregar productos claros, medibles y de valor tangible que impulsen la madurez en la gestión de datos.

Se valoran también competencias blandas como comunicación efectiva, pensamiento estratégico, adaptación al cambio, y alta proactividad en la identificación y solución de problemas relacionados con los datos. La experiencia en sectores corporativos o multinacionales será un plus relevante para el desempeño óptimo en esta posición.

Competencias y experiencia deseables

Serán valorados conocimientos adicionales en tecnologías de almacenamiento y gestión de datos, plataformas de análisis avanzadas, y experiencia previa con marcos internacionales como DAMA o COBIT relacionados con el gobierno de datos. También es deseable contar con habilidades en gestión del cambio y experiencia en iniciativas de transformación digital que involucren inteligencia artificial o automatización.

El manejo de metodologías ágiles para la gestión de proyectos y la capacidad para desarrollar capacitaciones o workshops internos sobre cultura de datos se consideran plus para potenciar el impacto del rol.

Beneficios y cultura organizacional

  • Oportunidad de trabajar en proyectos innovadores con tecnologías de vanguardia en un entorno dinámico y desafiante.
  • Plan de desarrollo profesional que incluye capacitaciones especializadas en inteligencia artificial y automatización.
  • Integración en un equipo colaborativo con profesionales de alto nivel y gran expertise técnico.
  • Salario competitivo acorde con la experiencia y el valor aportado.
  • Trabajo 100% presencial en Colombia, con la posibilidad de interactuar directamente con clientes y equipos líderes.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Junior Data Analyst & Automation
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Banco Santander Chile es una organización internacional líder en el sector financiero con presencia en más de 20 países, reconocida por su compromiso con el desarrollo profesional, el aprendizaje continuo y la movilidad interna. La Vicepresidencia de Tecnología y Operaciones del banco es un área estratégica que impulsa la innovación tecnológica, la optimización y mejora de procesos con el objetivo de contribuir al progreso de las personas y empresas. Este departamento está enfocado en liderar iniciativas tecnológicas de vanguardia que fortalecen la posición de Santander como líder en el sector financiero chileno y a nivel internacional, promoviendo un ambiente de trabajo colaborativo, desafío constante y crecimiento profesional.

Apply to this posting directly on Get on Board.

Misión del cargo

Buscamos jóvenes profesionales comprometidos y flexibles para integrarse al equipo de Tecnología y Operaciones, donde contribuirán a la optimización y mejora continua de procesos mediante el uso de tecnologías punteras.

El rol implica colaborar en proyectos estratégicos que impulsen la innovación tecnológica dentro del banco, trabajando estrechamente con diferentes áreas para apoyar la transformación digital y la eficiencia operativa.

Además, se espera que el candidato participe activamente en el aprendizaje permanente y el desarrollo de competencias técnicas y colaborativas, favoreciendo un ambiente dinámico y orientado al trabajo en equipo.

Qué te ayudará a tener éxito en el proceso

  • Para tener éxito en esta posición, buscamos egresados de carreras como Ingeniería Civil Industrial, Ingeniería Civil en Informática o afines, con no más de un año de experiencia profesional, ya que aspiramos a formar jóvenes talentos que aporten con nuevas ideas y ganas de aprender.
  • Debe contar con formación o experiencia en automatización de procesos, analítica avanzada y manejo de datos, con conocimientos intermedios en SQL, Power BI y/o Tableau. Se valoran conocimientos deseables en Python, Spark y Appian, orientados a potenciar habilidades técnicas y tecnológicas en análisis de datos.
  • El candidato debe tener un nivel intermedio de inglés (B1), mostrando capacidad para manejar información en este idioma y comunicarse de forma básica en el contexto laboral.
  • Buscamos personas con interés genuino en las herramientas tecnológicas de análisis de datos, motivadas a contribuir en un entorno desafiante y colaborativo, con habilidades blandas como adaptabilidad, actitud proactiva y capacidad de trabajo en equipo.
  • Se requiere disponibilidad para incorporarse en junio de 2025.

Conocimientos y habilidades deseables

  • Nos interesa especialmente candidatos que hayan desarrollado conocimientos en programación avanzada, analítica de datos con Python y Spark, así como familiaridad con plataformas de automatización como Appian.
  • Valoramos la capacidad para desenvolverse en entornos multidisciplinarios, con habilidades comunicativas y de gestión del tiempo, que contribuyan a un equipo colaborativo y efectivo.
  • Además, la experiencia en proyectos relacionados con la transformación digital y optimización de procesos se considera un plus importante, aunque no es requisito excluyente.

¿Qué te ofrecemos?

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna para participar en proyectos estratégicos.
  • Acompañamiento formativo durante el proceso de adaptación y desarrollo del rol, asegurando una integración exitosa y crecimiento profesional.
  • Redes internas de colaboración que potencian el aprendizaje, la creación de vínculos profesionales y la expansión de la mirada laboral.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2500 Tiempo completo
Jefe de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (In-office)
Agile Amazon Web Services Cloud Computing Google Cloud Platform
Genesys Tecnologías de Inform. SpA es una empresa con más de 30 años de trayectoria en el sector tecnológico latinoamericano, dedicada a facilitar la transformación digital en empresas mediante servicios avanzados de tecnología. Con oficinas en Concepción y Santiago, nos especializamos en el desarrollo de software y la prestación de servicios tecnológicos, incluyendo soporte y mantenimiento de aplicaciones, RPA, Inteligencia Artificial, QA Automation, Staff Augmentation y Cloud.
El área o proyecto donde se desarrollará este rol está focalizado en la gestión y coordinación de servicios vinculados a datos y analítica, incluyendo la supervisión de proveedores en la nube y tecnologías emergentes. Nuestra fábrica de desarrollo y los servicios de outsourcing buscan fortalecer la gestión eficiente de proyectos y ofrecer soluciones tecnológicas con valor agregado para nuestros clientes.

Apply directly from Get on Board.

Funciones del Cargo

El profesional contratado liderará la gestión integral de servicios relacionados con proyectos de Datos y Analítica, actuando como enlace principal entre la empresa y los proveedores externos. Entre sus principales responsabilidades está coordinar y supervisar proveedores de servicios Cloud y datos, asegurando entregas oportunas y con la calidad exigida.
  • Coordinar y supervisar el desempeño de proveedores externos en Cloud, Datos & Analítica e Inteligencia Artificial, garantizando el cumplimiento de estándares y acuerdos.
  • Asegurar que los equipos externos entreguen productos y servicios alineados a los requisitos y dentro de los plazos establecidos.
  • Colaborar activamente con stakeholders internos para definir y clarificar requerimientos específicos de los proyectos de datos y analítica.
  • Evaluar y validar que los equipos proveídos por los proveedores cumplan con la experiencia, competencias técnicas y estándares de calidad previstos.
  • Administrar contratos y acuerdos de nivel de servicio (SLA), monitoreando su cumplimiento y gestionando posibles incidencias o desviaciones.
  • Implementar un seguimiento continuo de métricas de desempeño que incluyen calidad, tiempos de entrega y satisfacción del cliente interno.
  • Controlar y gestionar el presupuesto asignado a proyectos y contratos, proponiendo acciones correctivas en caso de desviaciones.

Descripción del Rol

Buscamos un profesional con al menos tres años de experiencia liderando la gestión de servicios tecnológicos, especialmente en proyectos relacionados con Datos y Analítica. Es indispensable contar con experiencia demostrada en la gestión integral de proveedores y coordinación de proyectos complejos en el área, aplicando metodologías tradicionales (waterfall) y ágiles, tales como iterativas, agile y SDLC.
Entre las habilidades técnicas requeridas destacamos el dominio en la gestión de proyectos y proveedores en el entorno de datos, conocimiento profundo en las metodologías de desarrollo de software y ciclo de vida, así como una visión estratégica para alinear los objetivos de negocio con las capacidades técnicas externas.
Además, el candidato ideal deberá poseer excelentes capacidades de comunicación, coordinación y liderazgo para gestionar múltiples equipos y partes interesadas simultáneamente. La capacidad para negociar contratos, supervisar SLA y evaluar desempeño técnico son competencias clave.
Valoramos experiencia con plataformas en la nube relevantes como Amazon Web Services (AWS), Google Cloud Platform, Microsoft Azure y SAP Business Technology Platform (BTP), ya que estos conocimientos permitirán optimizar la gestión y supervisión de servicios de datos y analítica.

Requisitos Deseables

Serán muy valoradas experiencias adicionales que aporten al fortalecimiento del rol, tales como: familiaridad con herramientas y soluciones de Inteligencia Artificial aplicadas a proyectos de datos, manejo avanzado de métricas y análisis de desempeño de proveedores, y experiencia previa en ambientes multinacionales o con equipos distribuidos.
También se considerará como plus tener certificaciones en gestión de proyectos (PMP, Scrum Master, ITIL), así como conocimientos en integración y funcionamiento de plataformas cloud específicas vinculadas a análisis de datos y automatización.

Se Ofrece

Ofrecemos un contrato a plazo fijo con un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional y el aprendizaje constante. Trabajamos con un horario estable de lunes a viernes, de 08:30 a 18:30 hrs.
La modalidad de trabajo es presencial, desarrollando las labores en nuestras oficinas situadas en Concepción, con posibilidad de interacción constante con nuestra oficina matriz en Santiago.
Formarás parte de una empresa consolidada en el mercado tecnológico latinoamericano con más de 30 años de experiencia, donde valoramos el talento, fomentamos la innovación continua y ofrecemos un entorno que impulsa la excelencia técnica y el compromiso con la transformación digital regional.
¡Te esperamos para crecer junto a nosotros! 😊

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Analista de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
PostgreSQL Data Transformation ETL Power BI
Genesys Tecnologías de Inform. SpA es una empresa con más de 30 años de trayectoria en el mercado Latinoamericano, especializada en desarrollo de software y servicios TI para acompañar a las empresas en sus procesos de transformación digital. Con sedes en Concepción y Santiago, Genesys se especializa en ofrecer soluciones basadas en tecnologías de última generación como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos (RPA).
En esta oportunidad, el proyecto se enfoca en la definición e implementación de una arquitectura de datos moderna y eficiente que soporte la toma de decisiones, facilite la interoperabilidad entre sistemas y garantice la calidad y trazabilidad de la información. Se trata de un proyecto de transformación estratégica dentro de la compañía, donde el equipo técnico de alto nivel trabaja con tecnologías y buenas prácticas aplicadas en un entorno real y desafiante.

Send CV through Get on Board.

Responsabilidades Clave

  • Diseñar la arquitectura de datos del proyecto, abarcando esquemas lógicos y físicos, así como los flujos de datos necesarios para garantizar la integridad y escalabilidad.
  • Modelar y normalizar estructuras de datos relacionales optimizadas en PostgreSQL, asegurando eficiencia en almacenamiento y consulta.
  • Participar activamente en la recolección y análisis de los requerimientos de negocio, interpretándolos para desarrollar modelos de datos alineados con las necesidades analíticas y operativas.
  • Establecer procesos robustos de ingesta, limpieza, transformación y catalogación de datos, para soportar casos de uso presentes y futuros en la organización.
  • Colaborar con equipos multidisciplinarios en la definición e integración de mecanismos de transferencia de datos mediante APIs, servicios externos y diversas fuentes de datos.
  • Definir y aplicar estándares claros de calidad, gobernanza y seguridad de datos en conjunto con los roles técnicos relacionados.
  • Apoyar la construcción y validación de dashboards o reportes exploratorios cuando sea necesario para dar soporte a las áreas de negocio.
  • Documentar meticulosamente las estructuras de datos, procesos implementados y decisiones tomadas para asegurar la trazabilidad y reutilización futura de los modelos desarrollados.

Requisitos Técnicos y de Experiencia

Buscamos profesionales con experiencia comprobable como Analista de Datos, Data Engineer o roles afines, preferentemente que hayan participado en proyectos de arquitectura de datos o transformación digital organizacional.
El candidato ideal debe tener dominio avanzado en el diseño y modelamiento de bases de datos relacionales, con un énfasis particular en PostgreSQL, además de conocimientos en bases de datos no relacionales.
Es imprescindible el entendimiento profundo de arquitecturas de datos modernas, incluyendo Data Lakes, Data Warehouses o arquitecturas híbridas que se complementen entre sí para soportar cargas analíticas y operativas.
Se requiere experiencia demostrable en el diseño y ejecución de procesos ETL/ELT para la obtención, procesamiento y almacenamiento eficiente de grandes volúmenes de datos.
Se valorará positivamente el manejo de herramientas específicas de ETL/ELT, así como el conocimiento en plataformas de visualización de datos tales como Power BI, Metabase, Tableau o Looker, para la realización de pruebas exploratorias y validaciones de datos.
Además de las competencias técnicas, buscamos una persona con mentalidad analítica orientada a la comprensión profunda del negocio facilitada por el análisis de datos, con iniciativa, atención al detalle y un fuerte compromiso con la calidad y consistencia en la información. La capacidad para trabajar en entornos colaborativos y multidisciplinarios, así como para comunicar conceptos técnicos complejos en términos claros y estructurados, es fundamental. Se valorará la curiosidad y la apertura para el aprendizaje continuo, contribuyendo así al crecimiento profesional y al éxito del equipo.

Habilidades y Herramientas Deseables

Además de los requisitos técnicos principales, es deseable que el candidato posea experiencia con herramientas específicas de ETL/ELT que faciliten la automatización y optimización de los procesos de transformación de datos.
Se valorará el conocimiento en herramientas de visualización de datos reconocidas en el mercado, como Power BI, Tableau, Looker o Metabase, para la validación rápida y exploratoria de los datos procesados, permitiendo una mejor toma de decisiones basada en información confiable.
El manejo de técnicas y metodologías de gobernanza de datos, calidad y seguridad será un plus para asegurar la integridad y protección de la información en todos los procesos.
Finalmente, poseer habilidades comunicativas y colaborativas que faciliten la interacción entre áreas técnicas y de negocio será un diferencial para fortalecer el trabajo en equipo.

Se Ofrece

Ofrecemos un contrato a plazo fijo dentro de un ambiente laboral dinámico y colaborativo, que fomenta el crecimiento profesional y el aprendizaje constante. Nuestro horario laboral es de lunes a jueves de 08:30 a 18:30 hrs, y viernes de 08:30 a 17:30 hrs, bajo modalidad híbrida que combina trabajo presencial y remoto.
Formarás parte de una empresa con más de 30 años de experiencia en el sector tecnológico, con presencia en las ciudades de Concepción y Santiago. Valoramos el talento y promovemos el desarrollo de nuestros colaboradores en un entorno que impulsa la innovación y la excelencia técnica.
Únete a Genesys Tecnologías de Inform. SpA y sé parte de un equipo tecnológico comprometido con mantener los negocios en movimiento y elevar el estándar tecnológico de las empresas en Latinoamérica. ¡Te esperamos con entusiasmo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL SQL
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Find this vacancy on Get on Board.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist & GCP Specialist
  • Forma - Moovmedia Group
Python SQL BigQuery Machine Learning

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Data Scientist & GCP Specialist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Official job site: Get on Board.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning avanzados usando Vertex AI.
Gestionar y optimizar infraestructura cloud en GCP (BigQuery, Cloud Storage, Dataflow, Compute Engine).
Automatizar pipelines avanzados de datos con Cloud Composer (Airflow), Cloud Functions y APIs externas.
Desarrollar dashboards interactivos avanzados principalmente con Looker Studio.
Implementar y gestionar prácticas de ML Ops avanzadas (monitoreo, versionado, CI/CD) en Vertex AI.
Colaborar y asesorar técnicamente a equipos de ingeniería, media y producto.

Requerimientos del cargo

Requisitos técnicos:

  • Lenguajes obligatorios: Python (Pandas, TensorFlow/Keras, Scikit-learn, Numpy), SQL.
  • Cloud: Google Cloud Platform (Vertex AI, BigQuery, Dataflow, Cloud Storage, Compute Engine).
  • Automatización: Cloud Composer (Airflow), Cloud Functions, Dataflow.
  • Visualización: Looker Studio (excluyente), Power BI o Tableau (deseable).
  • Modelos ML: Clasificación, regresión, clustering, detección de anomalías, series temporales.
  • Ingeniero en Estadística, Computación, Ciencia de Datos o carrera afín.
  • 3+ años de experiencia especializada en proyectos utilizando Google Cloud Platform y Vertex AI.

Opcionales

Deseable: experiencia previa en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • 2BRAINS
Python Git REST API Data Analysis

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Opportunity published on Get on Board.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Business Analyst Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Data Analysis Data Visualization Agile Methodologies Análisis de Negocios
En BC Tecnología, somos una consultora de TI que ofrece un enfoque ágil y personalizado a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro objetivo es crear soluciones efectivas que se alineen con las expectativas de cada cliente a través de la formación de equipos de trabajo enfocados y la gestión de portafolios robustos. Con más de seis años de experiencia, hemos diseñado equipos multidisciplinarios que se dedican a la consultoría, desarrollo de software y administración IT, ofreciendo un entorno flexible que fomenta la innovación y el crecimiento profesional.

© getonbrd.com.

Liderazgo y Comunicación

El rol del de Análisis de Negocios implica varias responsabilidades críticas para asegurar el éxito del producto y del equipo. Entre las principales funciones están:

  • Liderazgo de equipo: Liderar y motivar a un equipo multidisciplinario en el desarrollo de aplicaciones, asegurando una colaboración efectiva y el cumplimiento de los objetivos del Product Owner.
  • Priorización de iniciativas: Evaluar y proponer iniciativas de negocio que maximicen el impacto en el producto y los resultados generales.
  • Comunicación y presentación: Elaborar y presentar informes periódicos claros y pertinentes a los stakeholders, facilitando ceremonias para fomentar la colaboración y compartir resultados.
  • Explotación de datos: Utilizar herramientas de análisis de datos para detectar oportunidades de mejora en el funnel del producto, analizando distintos datos relacionados con el comportamiento del cliente y las tendencias del mercado.

habilidades y experiencia requeridas

Buscamos un profesional con una sólida formación en Ingeniería Civil Industrial, Ingeniería Comercial, Informática o áreas afines. Se requiere un mínimo de 2 años de experiencia en un rol de analista de negocios, donde haya demostrado una capacidad efectiva para gestionar equipos de desarrollo. Las habilidades analíticas y de resolución de problemas son esenciales, así como la capacidad de comunicación tanto oral como escrita. También valoramos la capidad para trabajar de forma independiente y ser parte de un equipo colaborativo.
El candidato ideal será un profesional orientado a resultados, con experiencia en el desarrollo de productos digitales y habilidades de liderazgo, capaz de gestionar equipos multidisciplinarios. Es fundamental tener un enfoque en la toma de decisiones basada en datos y un entusiasmo por la venta digital. Se requiere una capacidad excepcional para identificar oportunidades de mejora y una destreza notable en la creación de un ambiente laboral motivador y colaborativo. La apertura al aprendizaje y aplicación de nuevas tecnologías y metodologías es altamente valorada.

Competencias deseables

Se valorarán habilidades adicionales, como experiencia con metodologías ágiles, conocimiento en herramientas de visualización de datos, y capacidad para implementar procesos de mejora continua. El deseo de crecer profesionalmente dentro del área de analítica y un interés activo por participar en la transformación digital de nuestros clientes también son aspectos positivos que consideraríamos importantes.

Beneficios ofrecidos

En BC Tecnología, cuidamos nuestro equipo y ofrecemos un entorno laboral flexible, con un paquete de beneficios que incluye:

  • Modalidad híbrida que combina trabajo remoto y presencial.
  • Salud prepaga de primer nivel para el empleado y su familia.
  • Un dos a tres días de home office por semana

¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

This job is original from Get on Board.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1900 Tiempo completo
Business Analyst
  • coderslab.io
  • Santiago (Hybrid)
Data Analysis Data Visualization Reporting Analytical Skills

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un Business Analyst.

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Aplica ahora para este increíble reto!

This posting is original from the Get on Board platform.

Funciones del cargo

  • Liderazgo de equipo:
    • Liderar y motivar a un equipo multidisciplinario de desarrollo de la aplicación.
    • Facilitar la colaboración efectiva entre los miembros del equipo y garantizar la alineación con los objetivos del Product Owner.
  • Priorización de iniciativas:
    • Evaluar y proponer iniciativas de negocio en función de su potencial impacto en el producto y los resultados.
  • Comunicación y presentación:
    • Desarrollar y presentar informes periódicos claros y de impacto a los stakeholders.
    • Facilitar ceremonias y presentaciones para compartir resultados y fomentar la colaboración entre equipos.
  • Explotación de datos:
    • Conocer y utilizar herramientas para la explotación de datos para identificar oportunidades de mejora en el embudo del producto.
    • Extraer y analizar datos de diversas fuentes para obtener información valiosa sobre el comportamiento del cliente y las tendencias del mercado.

Requerimientos del cargo

  • Ingeniería Civil Industrial, Ingeniería Comercial, Informática o áreas relacionadas.
  • Mínimo 2 años de experiencia en un rol de analista de negocios.
  • Experiencia demostrable en la gestión de equipos de desarrollo.
  • Sólidas habilidades analíticas y de resolución de problemas.
  • Excelentes habilidades de comunicación oral y escrita.
  • Capacidad para trabajar de forma independiente y como parte de un equipo.
  • Experiencia en el uso de herramientas para la explotación de datos y visualización de datos.
  • Buena comunicación y relaciones con stakeholders.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Find this vacancy on Get on Board.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Ingeniero de Datos/ Dbt
  • BC Tecnología
  • Santiago (Hybrid)
SQL Big Data BigQuery Google Cloud Platform

En BC Tecnología, somos una consultora de TI con más de seis años de experiencia, especializada en ofrecer soluciones personalizadas para nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nos enfocamos en consultoría, outsourcing, desarrollo de proyectos y formación de equipos, siempre con un claro compromiso hacia la satisfacción del cliente. Como parte de nuestro equipo, el ingeniero/a de datos jugará un papel clave en la creación de soluciones basadas en tecnologías de la nube, impulsando la innovación y la colaboración en un entorno de trabajo ágil.

Apply without intermediaries from Get on Board.

Responsabilidades Clave

El ingeniero/a de datos será responsable de:

  • Diseñar y mantener pipelines de datos utilizando BigQuery y DBT.
  • Implementar tareas programadas en Google Cloud Platform (GCP) para la ingesta y procesamiento continuo de datos.
  • Construir y documentar modelos de datos optimizados para su análisis.
  • Validar y realizar pruebas para garantizar la precisión de los datos transformados.
  • Realizar seguimiento y documentación de cambios en modelos y sus transformaciones.

Requisitos Técnicos

Buscamos un ingeniero/a de datos con:

  • Experiencia avanzada en BigQuery y DBT.
  • Conocimiento práctico en Google Cloud Platform, incluyendo la programación de tareas y almacenamiento.
  • Sólido manejo de SQL y experiencia en modelado de datos.
  • Capacidad para documentar procesos y realizar pruebas de calidad de datos de manera eficiente.

Lo que ofrecemos

Brindamos un contrato por proyecto de 12 meses en modalidad híbrida, lo que permite combinar trabajo remoto con visitas a la oficina 2 a 3 días a la semana. También garantizamos un enfoque en la inclusión, en cumplimiento con la Ley Nº 21.015, promoviendo un entorno donde todos los empleados puedan prosperar.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2500 Tiempo completo
Ingeniero en Gestión de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (In-office)
Analytics Agile SAP Virtualization
En Genesys Tecnologías de Inform. SpA, nos dedicamos a mantener los negocios en movimiento elevando el estándar tecnológico de las empresas. Con más de 30 años de experiencia en el mercado Latinoamericano, ofrecemos servicios de soporte y mantenimiento de aplicaciones, RPA, Inteligencia Artificial, QA Automation, Staff Augmentation, Cloud y más. Estamos buscando un Ingeniero en Gestión de Datos para formar parte de nuestro equipo en la operación de Concepción y Santiago, desempeñando un papel clave en la optimización de nuestros servicios de datos y Cloud.

Apply exclusively at getonbrd.com.

Funciones del Cargo:

  • Gestión de Servicios Externos: Supervisar el desempeño de los proveedores externos - Cloud, Datos & Analítica (D&A), IA - asegurándose de que los servicios contratados se entreguen según los estándares acordados.
  • Coordinación de Entregas: Asegurar que los equipos externos entreguen sus productos y servicios dentro de los plazos y conforme a los requisitos establecidos, manteniendo un enfoque en la calidad.
  • Definición de Requerimientos: Colaborar con los stakeholders internos para establecer requisitos claros y asegurarse de que los proveedores los implementen adecuadamente.
  • Evaluación de Proveedores: Asegurar que el equipo provisto sea adecuado para el proyecto, evaluando su experiencia, capacidad técnica y cumplimiento de acuerdos previos.
  • Gestión de Contratos y SLA: Administrar los contratos, supervisando el cumplimiento de los SLA y gestionando cualquier incumplimiento.
  • Monitoreo de Desempeño: Seguimiento regular de las métricas de desempeño de los proveedores, incluyendo la calidad, tiempos de entrega y satisfacción del cliente interno.
  • Control de Costos: Asegurar el cumplimiento del presupuesto asignado, monitorear desempeño y proponer medidas correctivas ante desviaciones.

Descripción del Rol:

Buscamos un profesional con al menos 3 años de experiencia en gestión de proveedores y proyectos, especialmente en el ámbito de Datos y Analítica. El candidato ideal debe tener experiencia en metodologías de gestión de proyectos como waterfall, iterativas, agile y SDLC. También se valorará el conocimiento en plataformas como AWS, GCP, Azure y BTP. La habilidad para comunicarte y colaborar con diferentes áreas de la empresa es crucial, así como el pensamiento analítico para evaluar el desempeño de proveedores y la realización de propuestas de mejora.

Experiencia Deseable:

Será un plus contar con conocimientos en plataformas de Cloud como AWS, GCP, Azure y BTP. Si tienes una formación o experiencia adicional en áreas de analítica de datos, será muy valorado nuestro enfoque en la mejora continua y optimización de nuestros procesos.

Se Ofrece:

Ofrecemos un contrato a plazo fijo, en un ambiente de trabajo dinámico y colaborativo. Nuestro horario es de lunes a viernes de 08:30 a 18:30 hrs, trabajo de forma presencial, En Genesys Tecnologías de Inform. SpA, promovemos un entorno de aprendizaje continuo y oportunidades de crecimiento profesional. ¡Te esperamos para que te unas a nuestra familia tecnológica! 😊

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2600 Tiempo completo
Data Analytics Residente Uruguay
  • BC Tecnología
Python Analytics Data Analysis SQL
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

Apply to this job through Get on Board.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Booster
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Apply directly at getonbrd.com.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1900 - 2100 Tiempo completo
Business Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Analytics Agile Front-end Data Analysis
En *BC Tecnología*, estamos en la búsqueda de un Business Analyst para un emocionante proyecto de desarrollo de productos digitales. Nos especializamos en la creación de soluciones IT que se adapten a las demandas de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Buscamos potenciar la manera en que los equipos gestionan la documentación de requerimientos y optimizan procesos, contribuyendo a la entrega de innovadoras soluciones tecnológicas.

Apply without intermediaries from Get on Board.

Funciones del Puesto

Como Business Analyst, serás responsable de:
  • Realizar análisis detallados sobre el desarrollo de software y productos digitales.
  • Estructurar artefactos de documentación necesarios para el proceso de desarrollo.
  • Gestionar la documentación requerida en cada etapa del proyecto.
  • Colaborar con los equipos para implementar soluciones innovadoras que promuevan la eficiencia.
  • Utilizar herramientas de medición y análisis para evaluar métricas de rendimiento mediante Google Analytics.
  • Trabajar en un entorno ágil, aplicando metodologías como Scrum y Kanban.

Requisitos del Perfil

Buscamos un profesional con:
  • Experiencia demostrable en desarrollo de software, incluyendo Back-End, Front-End y Bases de Datos.
  • Conocimiento práctico en Business Analytics y herramientas de medición.
  • Manejo de herramientas como JIRA y familiarización con metodologías ágiles.
  • Capacidad para documentar y comunicar de manera efectiva en inglés, a nivel intermedio-avanzado.

Además, el candidato ideal deberá tener habilidades analíticas sobresalientes, una mentalidad orientada a la solución de problemas y una gran capacidad de trabajo en equipo, ya que colaborarás con diferentes áreas dentro de nuestra consultora.

Habilidades Deseables

Sería un plus tener:
  • Conocimientos fundamentales en diseño de UX/UI.
  • Experiencia previa en el análisis de datos y generación de informes.

Beneficios que Ofrecemos

En *BC Tecnología*, ofrecemos un entorno laboral flexible, con una modalidad mayormente remota, donde solo se requiere presencia 1-2 días a la semana al inicio del proyecto. Nuestros beneficios incluyen:
  • Contrato inicial por proyecto.
  • Un espacio que fomenta el crecimiento profesional constante.
  • Horario laboral de 8:30 a 18:00 hrs.
Si te consideras una mente analítica que quiere marcar la diferencia, esta es tu oportunidad. ¡Te invitamos a ser parte de nuestro equipo! 🚀✨

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • 2BRAINS
Python SQL NoSQL Big Data

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

© Get on Board. All rights reserved.

El Data Scientist de 2Brains

Es responsable de analizar y extraer conocimiento a partir de datos mediante técnicas de Machine Learning, estadística y análisis avanzado, con el fin de optimizar la toma de decisiones y generar impacto en el negocio. Trabaja en conjunto con el equipo digital para desarrollar productos de datos, asegurando su calidad, documentación y correcta implementación. Además, mide el impacto de sus soluciones mediante estándares de experimentación, contribuyendo a la mejora continua y eficiencia operativa.

El Data Scientist de 2Brains deberá

  • Analizar grandes volúmenes de datos para identificar patrones, tendencias y oportunidades de mejora.
  • Diseñar, desarrollar e implementar modelos de Machine Learning y técnicas estadísticas para resolver problemas de negocio.
  • Desarrollar productos de datos en colaboración con el equipo digital, asegurando calidad, mantenimiento y escalabilidad.
  • Aplicar métodos de experimentación y validación (A/B testing, causal inference, etc.) para medir el impacto de las soluciones implementadas.
  • Garantizar la correcta documentación de los modelos, algoritmos y procesos desarrollados.
  • Optimizar y mejorar continuamente los modelos en producción en función de su desempeño y nuevos datos.
  • Colaborar con equipos de negocio y tecnología para alinear soluciones de datos con objetivos estratégicos.
  • Explorar nuevas herramientas y tecnologías para potenciar el uso de datos dentro de la organización.

¿Qué conocimientos buscamos en el/la Data Scientist?

  • Python/R, SQL y Spark. Para programar modelos de machine learning, realizar análisis estadístico y manipular datos, además de procesar grandes volúmenes de datos en paralelo y a gran escala.
  • Machine Learning, métricas de evaluación de modelos.
  • Pruebas A/B.
  • Deployment de modelos
  • Análisis estadístico
  • Desarrollo de productos de datos.
  • Deseables:
  • NoSQL, Bayesian Statistics, MLOps avanzado.
  • Herramientas de visualización como Streamlit.

¿Qué competencias buscamos en el/la Data Scientist?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
Python Agile SQL NoSQL
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

This job is published by getonbrd.com.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Analista de BI Latam
  • BC Tecnología
Python Analytics Data Analysis SQL

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

Find this job and more on Get on Board.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Salesforce CRM Analytics Consultant
  • Niuro
Analytics Business Intelligence Big Data CRM
At Niuro, we connect elite tech teams with leading U.S. companies, revolutionizing the way organizations engage with top talent. Our Salesforce CRM Analytics division is at the forefront of transforming how our sales teams leverage data, driving measurable results and ensuring continuous improvement in sales performance through insightful analytics.

Apply to this job through Get on Board.

Responsibilities

✅ Design and build custom dashboards in Salesforce CRM Analytics based on provided Excel mockups.
✅ Develop interactive reports to track key sales metrics across different levels (Sales Reps, Sales Managers, Regional Managers, and the entire Sales Department).
✅ Implement dynamic filtering, allowing users to filter by date, role, office, region, tenure, and status.
✅ Ensure accurate tracking of sales activities, including calls, meetings, proposals, contracts, and conversions.
✅ Automate calculations for quota attainment, proposal success rates, and pipeline tracking.
✅ Collaborate with sales and business teams to refine reporting requirements and improve data-driven decision-making.
✅ Optimize data integration and processing for real-time analytics.
✅ Ensure data accuracy and integrity within Salesforce CRM Analytics.

Requirements

🔹 Salesforce CRM Analytics Expertise: 3+ years of hands-on experience in Salesforce CRM Analytics (Tableau CRM) and reporting tools.
🔹 Technical Skills: Strong knowledge of Salesforce data models, SAQL, and data transformations.
🔹 Sales Performance Reporting: Experience in tracking KPIs and developing custom dashboards with complex filtering and aggregation logic.
🔹 Data Visualization: Proficiency in best practices for analytics and interactive reporting.
🔹 Sales Process Understanding: Knowledge of call tracking, proposal rates, and contract conversions.
🔹 Big Data Handling: Experience working with large datasets and optimizing queries.
🔹 Problem-Solving & Analytical Thinking: Strong ability to analyze data and drive insights.
🔹 Communication & Teamwork: Excellent interpersonal skills to work closely with sales teams and stakeholders.
🔹 Advanced English (oral & written): Required for effective collaboration with international teams.

Nice to Have

🔸 Salesforce Sales Cloud & Einstein Analytics experience.
🔸 Apex, SOQL, and Lightning Components knowledge for advanced customizations.
🔸 Background in Data Analytics, Business Intelligence, or Financial Reporting.

What We Offer

🌎 100% Remote – Work from anywhere in Eastern Europe or LATAM!
📈 Professional Growth – Be part of a dynamic and innovative team.
💰 Competitive Salary & Reviews – Compensation adjusted based on experience.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Power BI Analyst Sr
  • Improving South America
Data Analysis SQL Big Data BigQuery
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Opportunity published on Get on Board.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

This job is available on Get on Board.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

Opportunity published on Get on Board.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1700 Tiempo completo
Analista de Datos
  • BC Tecnología
  • Buenos Aires (Hybrid)
Python Data Analysis SQL Business Intelligence
En BC Tecnología, somos una consultora especializada en servicios IT, trabajando con clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de BI & Analytics juega un papel crucial en la optimización de procesos y toma de decisiones informadas mediante la administración y análisis de datos. Buscamos un Analista de Datos que se una a nuestro equipo, aportando experiencia y conocimiento en herramientas clave.

Apply to this posting directly on Get on Board.

Responsabilidades

Como Analista de Datos, serás el representante del equipo de BI & Analytics en Argentina. Tus responsabilidades incluirán:
  • Desarrollar y optimizar consultas SQL para la extracción y transformación de datos.
  • Implementar y gestionar pipelines de datos en Databricks.
  • Aplicar Python para el procesamiento y análisis avanzado de datos.
  • Servir como enlace entre el equipo de BI & Analytics y las áreas de negocio en el país, asegurando que las iniciativas de BI estén alineadas con las necesidades estratégicas de la empresa.
  • Asegurar la calidad y disponibilidad de los datos para la toma de decisiones.
  • Colaborar con equipos multidisciplinarios para definir y mejorar modelos analíticos.

Requisitos

  • Experiencia sólida en desarrollo BI con SQL avanzado.
  • Conocimiento y experiencia en Databricks (deseable).
  • Habilidad en Python para manipulación y análisis de datos.
  • Experiencia en entornos de análisis y procesamiento de datos en la nube (Azure, AWS, GCP es un plus).

Habilidades Deseables

Buscamos a alguien que no solo cumpla con los requisitos técnicos, sino que también posea habilidades interpersonales para colaborar efectivamente con equipos diversos y facilitar la comunicación entre departamentos. La adaptabilidad y una mentalidad centrada en soluciones son altamente valoradas en nuestra cultura de trabajo.

Beneficios

En BC Tecnología, te ofrecemos un entorno laboral dinámico y colaborativo, con un modelo de trabajo híbrido que idealiza la integración entre lo presencial y lo remoto. Además, tendrás acceso a oportunidades de capacitación continua, un ambiente que fomenta la innovación y centenares de oportunidades para crecer profesionalmente al lado de expertos. Valoramos a nuestros colaboradores y buscamos su desarrollo constante.

Health coverage BC Tecnología pays or copays health insurance for employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Microsoft Power BI Developer
  • Improving South America
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Job opportunity on getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2800 Tiempo completo
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

This company only accepts applications on Get on Board.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3900 Tiempo completo
Senior Data Engineer
  • Apply Digital Latam
Python Agile SQL Virtualization
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply from getonbrd.com.

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo