Gross salary $3000 - 3500 Full time
Data Engineer
  • Coderslab.io
Python SQL NoSQL Azure
Coderslab.io es una empresa global líder en soluciones tecnológicas con más de 3,000 colaboradores en todo el mundo, incluyendo oficinas en América Latina y Estados Unidos. Formarás parte de equipos diversos compuestos por talento de alto desempeño para proyectos desafiantes de automatización y transformación digital. Colaborarás con profesionales experimentados y trabajarás con tecnologías de vanguardia para impulsar la toma de decisiones y la eficiencia operativa a nivel corporativo.

Send CV through getonbrd.com.

Funciones del cargo

-Crear productos de datos que ayuden al negocio a lograr sus objetivos con fines analíticos.
-Diseñar, diseñar, construir y mantener soluciones de canalización de datos (Data Pipelines) / ETLs batch o streaming.
-Construir código para ingestar y actualizar grandes conjuntos de datos en bases de datos relacionales y no relacionales e incluso data No Estructurada.
-Aplicar buenas prácticas de Azure DevOps para facilitar el despliegue continuo de nuevas versiones de las canalizaciones y soluciones de datos a través de Pull-Request.
-Desarrollar Modelos de Datos que permitan gestionar los datos a escala, de manera óptima de cara a grandes volúmenes de datos (Modelo de Datos Data Vault), así como, Modelos de Datos Optimizados para consumos (Modelos de Datos Estrella y Copo de Nieve).
-Desarrollar Productos de Datos bajo la Arquitectura Lakehouse y aplicando buenas prácticas de Data Mesh.
-Trabajar con las áreas de negocios para comprender los objetivos, recopilar los requisitos iniciales para desarrollar y recomendar soluciones adecuadas.
-Participar en la planificación y ejecución de proyectos de ingeniería de datos, coordinando actividades y asegurando el cumplimiento de los plazos.
-Colaborar con los científicos de datos para comprender los requisitos específicos de datos necesarios para modelos de inteligencia artificial (IA) y aprendizaje automático (ML).

Requerimientos del cargo

-Microsoft Certified: Azure Data Engineer Associate
-Databricks Certified: Data Engineer Associate
-Conocimiento avanzado en bases de datos relacionales y lenguaje SQL.
-Conocimiento avanzado en bases de datos NoSql.
-Conocimiento avanzado de procesos y herramientas de ETL, principalmente enfocado a Azure.
-Conocimiento en procesamiento de datos batch, streaming, API.
-Conocimiento intermedio en programación Python y avanzado en el uso de la biblioteca pyspark.
-Conocimientos avanzados en el modelado de datos Data Vault para arquitecturas Data Lakehouse.
-Conocimientos avanzados en el modelado de datos Estrella y Copo de Nieve para arquitecturas Data Warehouse.
-Conocimiento conceptual en gobierno de datos, seguridad de los datos y calidad de los datos.

Condiciones

Modalidad de contratación: Prestación de servicio, Contractor.
Duración del proyecto: Indefinido.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer – Sas/SQL Migration
  • WiTi
  • Santiago (Hybrid)
Python SQL Virtualization Big Data
En WiTi lideramos un proyecto estratégico de migración de un ecosistema analítico legado hacia una arquitectura moderna en la nube sobre AWS.
El objetivo es estandarizar, optimizar el rendimiento y escalar la operación, trasladando lógica SAS y SQL no estándar a SQL estándar para Amazon Redshift. Este esfuerzo involucra automatización para acelerar la migración, reducción de errores y una alta interacción con equipos de data, BI y TI para asegurar trazabilidad, reproducibilidad y gobernanza de datos a nivel enterprise.
Serás parte de un equipo multidisciplinario que diseña y ejecuta la migración de punta a punta, estableciendo reglas de conversión, pipelines, controles de calidad y guías de codificación reutilizables. El proyecto ofrece visibilidad transversal sobre ETL/ELT y buenas prácticas de gobierno de datos en un entorno cloud escalable.

Applications at getonbrd.com.

Funciones del cargo

  • Analizar programas existentes en SAS, incluyendo SAS SQL no estándar y estructuras propias del entorno (macros, data steps, librerías, jobs).
  • Convertir y reescribir lógica desde SAS a SQL estándar compatible con Amazon Redshift, cuidando equivalencia funcional y performance.
  • Definir un enfoque repetible para migrar grandes volúmenes de programas: reglas, patrones de conversión y estándares de codificación.
  • Automatizar el proceso de transformación mediante scripts, reglas de conversión, validaciones automáticas, templates o pipelines.
  • Trabajar con procesos ETL/ELT en AWS, integrándose con el stack del cliente (fuentes, cargas, transformaciones, orquestación, monitoreo).
  • Validar equivalencia funcional entre SAS y Redshift mediante reconciliaciones de datos, controles de calidad y monitoreo.
  • Documentar reglas de conversión, decisiones técnicas y casos borde para un proceso mantenible y auditable.
  • Colaborar con data y TI para asegurar trazabilidad, reproducibilidad y rendimiento del data warehouse en la nube.

Perfil y requisitos

Buscamos un Data Engineer con experiencia sólida en migraciones de SAS hacia entornos cloud, especialmente Amazon Redshift, y con fuerte capacidad para optimizar consultas, diseñar estrategias de conversión y liderar iniciativas de calidad de datos. Deberás combinar habilidades técnicas avanzadas con capacidad de trabajo colaborativo en un entorno enterprise.
  • SQL avanzado (queries complejas, optimización de performance, joins pesados, window functions/CTEs), lectura e interpretación de planes de ejecución.
  • Experiencia demostrada trabajando con SAS (lectura y mantención de programas, entendimiento de SAS SQL y su lógica de procesamiento).
  • Experiencia práctica con Amazon Redshift: diseño y escritura de SQL, buenas prácticas de rendimiento y modelado en Redshift.
  • Conocimiento de ETL/ELT en AWS (p. ej., Glue, Lambda, Step Functions) y otras herramientas de orquestación.
  • Experiencia en contextos enterprise centrada en calidad, trazabilidad, documentación y resultados reproducibles.
migraciones desde SAS u otras tecnologías legacy hacia cloud data warehouses (Redshift, Snowflake, BigQuery), automatización de migraciones, Python u otros lenguajes de scripting para tooling, gobernanza de datos (naming conventions, documentación funcional/técnica, data quality checks) y monitoreo.

Requisitos deseables

Se valorará experiencia previa migrando desde tecnologías legacy hacia cloud data warehouses (SAS, otros) y participación en automatización de migraciones. Conocimientos de Python u otros lenguajes de scripting para apoyar automatización y tooling interno, así como experiencia en gobernanza de datos (naming conventions, documentación, data quality checks y monitoreo).

Beneficios

En WiTi fomentamos una cultura de aprendizaje y colaboración, con foco en proyectos digitales y de datos de alto impacto. Entre los beneficios se incluyen:
  • Plan de carrera personalizado orientado a desarrollo en data, cloud y analítica.
  • Certificaciones para continuar creciendo en tu carrera (AWS, data, analítica).
  • Cursos de idiomas para desarrollo personal y profesional.
Modalidad híbrida en Las Condes, Santiago, con flexibilidad para coordinar con equipos y stakeholders. Participación en un proyecto estratégico de transformación de datos con alta visibilidad interna y contacto directo con equipos de data, BI y tecnología. Política de trabajo remoto Híbrido; se combine trabajo remoto y días en oficina.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Data Analysis Excel
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply to this job through Get on Board.

Funciones del cargo

  • Manage large datasets using most recent technologies
  • Partner with project leads to understand business briefs and execute analysis
  • Develop and enhance statistical model with best-in-class modelling techniques
  • Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.
  • Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)
  • Deliver informative and well-organized deliverables.Evaluate new data sources, conduct research to assist in solving business problems
  • Multi country / companies’ interactions with team and the Client is daily
  • Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)
  • Take part in organizational development activities to take our organization to the next leve
  • Proactively seek opportunities to help team members by sharing knowledge and expanding skills

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Beneficios

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $1100 - 1700 Full time
Data Engineer
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Excel SQL Artificial Intelligence
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

This job offer is available on Get on Board.

Funciones del cargo

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Cloud Platforms for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, and SQL
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects. Helping translating business realities into data bases solution.
  • Performance Optimization: Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness. Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.
  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across cloud platforms environment.

Requerimientos del cargo

  • Bachelor’s degree in computer science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred.
  • Advanced English is mandatory
  • 1+ years of experience as Data Engineer
  • Cloud data storage is mandatory
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language, relational data modelling and sound knowledge of Database administration is mandatory
  • Proficiency in Python related to Data Engineering for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • Proficiency in Microsoft Excel
  • Experience within integrating data management into business and data analytics is mandatory
  • Experience working with cloud platform for deploying and managing scalable data infrastructure
  • Experience working with technologies such as DBT, airflow, snowflake, Databricks among others is a plus
  • Excellent Stakeholder Communication
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development
  • Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Senior Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Excel SQL
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply at the original job on getonbrd.com.

Funciones del cargo

▪ Design and develop analytical solutions to address a spectrum of business challenges, focusing on user acquisition and engagement for state-of-the-art digital offerings.

▪ Collaborate with multidisciplinary teams to structure and analyze business questions through a hypothesis-driven approach.

▪ Perform cohort studies and event impact assessments to analyze outcomes of event interventions using statistical methods.

▪ Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.

▪ Designing data models and schemas that optimize performance and scalability ensuring efficient data retrieval

▪ Partner with consultants /project leads to understand business briefs and execute analyses ensuring high quality, on-time delivery

▪ Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)

▪ Deliver informative and well-organized deliverables.

▪ Develop and enhance statistical model with best-in-class modelling techniques

▪ Evaluate new data sources, conduct research to assist in solving business problems

▪ Multi country / companies’ interactions with team and the Client is daily

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organization to the next level

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $1200 - 1900 Full time
Data Scientist
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Data Analysis Marketing
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply to this job directly at getonbrd.com.

Funciones del cargo

▪ Utilize advanced Python programming skills to design, develop, and deploy machine learning models and algorithms for various business use cases.

▪ Develop Machine Learning techniques such as regression, classification, clustering, and deep learning

▪ Ensure the availability, quality, and security of data used for analysis and modeling

▪ Investigate and interpret data to identify actionable insights and opportunities for improvement

▪ Work with cross-functional teams to implement data-driven solutions and drive business growth

▪ Manage client relationships effectively, including conducting meetings, understanding client requirements, and delivering solutions that meet or exceed expectations.

▪ Lead efforts to expand business opportunities by identifying new avenues for data-driven insights and solutions.

▪ Research and devise innovative statistical models for data analysis

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organzation to the next level

Requerimientos del cargo

▪ Bachelor's degree in Computer Science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred

▪ Minimum of 1+years of experience in a data science domain or related role.

▪ Proficiency in Python for data manipulation, analysis, and model development.

▪ Data Science libraries (such as NumPy, Pandas, Scikit-Learn, TensorFlow, or PyTorch)

▪ Advanced SQL skills for data extraction, transformation, and analysis.

▪ Strong experience in Lifecycle of a Data Science Modelling project

▪ Strong knowledge and practical experience in Machine Learning techniques and frameworks such as such as regression, classification, clustering, and deep learning.

▪ Strong knowledge in Statistics, ML and LLM/Gen AI

▪ Proven track record of successfully managing client relationships and delivering value-added solutions

▪ Experience in building Reporting Dashboards in any of the BI Tools is good to have: Power BI, Tableau, Looker

▪ Familiarity with any could platform such as Azure, AWS, GPC

▪ Expert in Analytics solutions such as Marketing, Predictive Order, Segmentation, Promotion, Hyper-personalization, forecasting, Pricing Analytics development is a plus

▪ Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

▪ Excellent Stakeholder communication and proactive problem-solving

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $3500 - 4000 Full time
Lead Risk Data Scientist
  • Niuro
Machine Learning Data Science Functional Programming Machine Learning Engineer

Niuro connects projects with elite tech teams and supports fast-growing fintech platforms with end-to-end management, administrative support, and scalable talent solutions. The Lead Risk Data Scientist will join a fintech platform focused on providing working capital solutions to freelancers, small businesses, and independent contractors. This role is part of a strategic effort to design and implement AI-driven underwriting, risk scoring, and portfolio optimization at scale, working closely with product, data, engineering, and finance teams to deliver risk-aware, data-driven decisioning across the business.

This job is original from Get on Board.

What You’ll Do

  • Lead AI & Underwriting Models (Hands-on): design, build, and maintain risk scorecards, credit underwriting models, and offer calculation engines using advanced AI/ML techniques. remain deeply hands-on in model development, feature engineering, validation, deployment, and ongoing optimization.
  • Risk Management & Portfolio Strategy: establish and lead the end-to-end risk management framework, including credit, operational, and portfolio risk; develop and optimize risk-adjusted return strategies across customer segments and lending products; own loss forecasting, pricing optimization, and portfolio performance analysis.
  • Data & Platform Integration: leverage alternative data sources (bank data, cash flow, behavioral, third-party) to continuously improve underwriting accuracy; collaborate with Product, Data, Engineering, and Finance to embed models into automated decisioning workflows.
  • Monitoring, Fraud & Predictive Analytics: build early-warning systems and real-time monitoring to detect anomalies, fraud, and emerging risk patterns using ML.
  • Leadership, Execution & Governance: mentor a small team (2–3 data scientists), set technical standards, review models/assumptions, define the strategic roadmap for AI adoption across risk and compliance, and deliver data-driven reporting to stakeholders and capital partners.

Role Overview

We are seeking a seasoned Lead Risk Data Scientist to spearhead the risk and underwriting capabilities of a fast-growing fintech platform. This senior, hands-on role treats risk, data, and AI/ML as core systems rather than support functions. You will own the design, implementation, and continuous optimization of AI-driven underwriting models, risk scorecards, and portfolio strategies, while shaping the long-term risk management vision at scale. Key responsibilities include building robust risk models, establishing governance and monitoring, and integrating models into automated decisioning workflows. You will collaborate across Product, Data, Engineering, and Finance to deliver scalable risk solutions, manage a small team, and communicate insights to executives and capital providers. Strong communication, strategic thinking, and a practical, execution-oriented mindset are essential to succeed in this role.

Nice-to-Have

🌟 Prior experience in specialty finance, lending platforms, or non-bank lenders. 🌟 Experience building fully automated or real-time AI decisioning systems. 🌟 Hands-on experience deploying ML models into production environments. 🌟 Experience working with capital providers on AI-powered risk reporting and portfolio analytics.

Benefits & Why Niuro

We provide opportunities to work on impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our 100% remote model offers global flexibility, with ongoing training programs and leadership opportunities to ensure continuous growth. After a successful initial contract, there is potential for long-term collaboration and stable, full-time employment. Join Niuro to become part of a global community focused on technological excellence, with strong administrative support so you can focus on high-impact work.

APPLY VIA WEB
$$$ Full time
Data Engineer on Premise
  • Coderslab.io
C Agile SQL C#

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.

En esta ocasión estamos buscando incorporar un/a Data Engineer On-premise.

Find this job on getonbrd.com.

Funciones del cargo

-Desarrollar ETL para réplica de Extracción y tratamiento de información de base de datos SQL Server.
-Programación de flujos y transformación de datos para carga de Datawarehouse.
-Analizar requerimientos del usuario para el diseño de las especificaciones técnicas.
-Elaboración de manuales técnicos.
-Trabajar como desarrollador en el marco de trabajo Scrum.
-Desarrolla de scripts/procesos.
-Desarrollar ETL bajo herramientas de Microsoft.
-Desarrollar según las especificaciones y políticas establecidas por BAC Regional.

Requerimientos del cargo

-Microsoft SQL Server.
-Modelado de Datos en Estrella o Copo de Nieve para Data Warehouse
-Microsoft Visual Studio 2022.
-Microsoft Integration Services.
-Dominio de T-SQL.
-Dominio en C# / VB.
-Dominio de mitologías de Modelo ETL y Data Warehousing.
-Conocimiento básico con Power BI.
-Azure DevOps (básico)
-Metodologías Agiles (Scrum)
-Herramientas de versionamiento de código fuente.

Condiciones

Modalidad de contratación: Prestacion de Servicio - Contractor

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Engineer (AWS, Power Apps/Power BI)
  • Niuro
Python SQL Virtualization Amazon Web Services
Niuro connects projects with elite tech teams to accelerate delivery for leading U.S. companies. We are building out an internal data initiative focused on data delivery and pipeline development to empower digital products and decision-making tools. Our data engineering team operates under a demand-based model, delivering end-to-end data workflows that ingestion data from multiple sources, transform and unify it on AWS-based platforms, and make high-quality data accessible to business applications and reporting tools. This project emphasizes autonomous, high-quality data pipelines, cross-functional collaboration with product and business teams, and alignment with internal data strategy to enable operational efficiency and timely insights across the organization.

Apply to this job through Get on Board.

Key Responsibilities

  • Ingest, process, and transform data from multiple source systems into existing AWS-based data platforms (e.g., Lambda, S3, Glue).
  • Design and maintain data integration flows for movement between source and target systems, following established standards and frameworks.
  • Ensure data delivered to Power Apps applications and Power BI reports meets quality, consistency, and timeliness requirements.
  • Collaborate with product and business teams to identify data needs, evaluate source systems, and assess constraints (update frequency, known issues).
  • Build data engineering solutions aligned with internal data strategy while maintaining autonomy and meeting timelines.
  • Work with dbt for data modeling and transformations; utilize Airflow for workflow orchestration; leverage Snowflake in production environments.

Role Overview

We are seeking a seasoned Data Engineer to join a data engineering team that supports a new internal initiative focused on data delivery and pipeline development. The ideal candidate will own end-to-end data workflows from source ingestion to consumption by Power Apps and Power BI, operating with minimal supervision. You will contribute to the reliability and scalability of AWS-based data platforms, ensure data quality for business applications, and partner with product and business teams to translate data needs into robust data pipelines. This role requires strong hands-on experience with AWS services, advanced SQL, Python for data processing, and experience with modern data tooling (dbt, Airflow, Snowflake).

Desirable Qualifications

  • Experience with data governance and data quality frameworks.
  • Experience with other cloud data platforms (e.g., Redshift, BigQuery) and data visualization patterns.
  • Strong communication skills and ability to translate technical concepts for non-technical stakeholders.
  • Familiarity with Power Apps customization and Power BI advanced features.

Benefits & Collaboration

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Credit Risk Specialist
  • Vemo México
  • Ciudad de México (In-office)
Analytics Excel SQL English
En VEMO México impulsamos la movilidad limpia mediante tecnología, datos y energía sostenible. Desarrollamos productos digitales y plataformas que soportan toda la operación de electromovilidad en México. Somos una empresa en crecimiento, trabajamos con metodologías ágiles, priorizamos la innovación y fomentamos una cultura de aprendizaje continuo y mentalidad de producto. Este puesto se integra a un equipo que gestiona el riesgo de crédito del negocio LTO, buscando asegurar que la originación y gestión del portafolio se realicen dentro de parámetros económicos y de riesgo aceptables, con foco en detección temprana de deterioro, definición de reglas de control y aplicación de políticas de riesgo y stop-loss.

Job opportunity on getonbrd.com.

Funciones y responsabilidades

  • Análisis de riesgo crediticio por cohortes: evaluar desempeño por cohorte, producto, plataforma, tipo de vehículo y geografía para identificar deterioro temprano y pérdidas estructurales.
  • Soporte a políticas de riesgo y producto: colaborar en el diseño, ajuste y documentación de políticas de crédito, criterios de elegibilidad, umbrales de stop-loss y reglas de escalamiento, basados en unit economics y comportamiento real del portafolio.
  • Monitoreo y alertamiento temprano: seguimiento continuo de indicadores de riesgo clave, activación temprana, morosidad inicial, reposiciones, tiempos de recuperación y costos, con alertas ante desviaciones relevantes.
  • Atribución de pérdidas y diagnóstico: analizar pérdidas crediticias y captar causas raíz para apoyar decisiones estratégicas.
  • Coordinación con Operaciones y Cobranza: validar supuestos de riesgo, monitorear SLAs y asegurar consistencia entre procesos operativos y el marco de riesgo.
  • Preparación de insumos ejecutivos: entregar análisis claros y orientados a decisiones para comités y liderazgo, priorizando implicaciones económicas.
  • Indicadores de éxito: identificar deterioro temprano, calidad de análisis, consistencia en la aplicación de políticas y reducción de pérdidas no anticipadas.

Perfil y requirements

Formación académica mínima en Economía, Finanzas, Ingeniería, Actuaría, Matemáticas, Ciencia de Datos o afines. 2–4 años de experiencia en análisis de riesgo, crédito, analytics, estrategia o finanzas operativas. Experiencia con portafolios, cohortes o modelos económicos es altamente deseable. Conocimientos técnicos clave: Excel avanzado; SQL intermedio (deseable); interpretación de KPIs crediticios y operativos; capacidad para estructurar análisis cuantitativos y traducirlos en reglas o decisiones. Inglés intermedio–avanzado (lectura y análisis). Mindset de VEMO: pensamiento analítico, criterio económico, cuestionar supuestos y enfoque en prevención de riesgos, alto ownership y capacidad para trabajar con información imperfecta y ambigüedad. Principales retos: traducir análisis en reglas prácticas, detectar problemas antes de pérdidas y equilibrar profundidad analítica con velocidad de ejecución.

Requisitos deseables

Experiencia comprobable en modelado de riesgo, análisis de portafolios, herramientas de datos y desarrollo de reglas de negocio basadas en datos. Capacidad para colaborar con equipos multidisciplinarios y comunicar hallazgos de forma clara para toma de decisiones, con enfoque en reducción de pérdidas y mejora de la eficiencia operativa.

Beneficios

💼 Beneficios del puesto

📋 Esquema: 100% nómina
📅 Contrato: Indefinido

📖 Prestaciones de ley:
• 12 días de vacaciones desde el primer año 🌴
• 15 días de aguinaldo 🎁
• 25% de prima vacacional ☀️

✨ Prestaciones superiores:
• 💳 Vales de despensa: 9% del salario mensual
• 💰 Bono anual de desempeño: equivalente a 1 mes de sueldo
• 🏥 Seguro de gastos médicos mayores: personal y extensible a familiares directos
• 💻 Plataforma de telemedicina: cobertura de gastos médicos menores (extensible a familiares con un costo anual simbólico)
• 💪 TotalPass: acceso a gimnasios y centros de bienestar
• 🎟️ Descuentos corporativos en salud, educación, bienestar, consumo y entretenimiento

APPLY VIA WEB
$$$ Full time
Científico de Datos
  • Vemo México
  • Ciudad de México (In-office)
Python Excel SQL Business Intelligence

En VEMO México estamos impulsando la movilidad limpia combinando tecnología, datos y energía sostenible. Construimos productos digitales y plataformas que soportan toda la operación de electromovilidad en LATAM. Somos una empresa en crecimiento que trabaja con metodologías ágiles, prioriza la innovación y fomenta una cultura de aprendizaje continuo y mentalidad de producto. El rol del Científico de Datos consiste en transformar datos complejos en insights accionables, desarrollando modelos predictivos y algoritmos avanzados que impulsen la toma de decisiones estratégicas, optimicen procesos y generen ventajas competitivas para la organización.

Apply exclusively at getonbrd.com.

Responsabilidades clave

  • Análisis y procesamiento de datos: recolectar, limpiar y preparar grandes volúmenes de datos estructurados y no estructurados; realizar análisis exploratorio para identificar patrones y anomalías; diseñar, automatizar y mantener flujos de datos end-to-end; asegurar actualización, escalabilidad y calidad de la información; implementar soluciones de almacenamiento y recuperación eficientes.
  • Modelado y aprendizaje automático: desarrollar, entrenar y validar modelos predictivos, de clasificación, segmentación y recomendación; aplicar técnicas de ML supervisado, no supervisado y aprendizaje profundo; optimizar modelos mediante selección de variables y ajuste de parámetros; poner modelos en producción y hacer seguimiento de su rendimiento.
  • Visualización y comunicación de resultados: elaborar tableros interactivos e informes ejecutivos; presentar resultados a audiencias técnicas y no técnicas; documentar metodologías, resultados y recomendaciones; garantizar consistencia entre modelos y métricas en tableros.
  • Automatización y orquestación de flujos de datos: diseñar y mantener ETL/ELT para extraer, transformar y cargar datos desde sistemas de origen hacia modelos y tableros; asegurar trazabilidad y confiabilidad de la información.
  • Colaboración estratégica: trabajar con equipos de negocio, ingeniería y producto para definir problemas y métricas de éxito; identificar oportunidades para el uso de datos; proponer nuevas metodologías, herramientas y buenas prácticas.

Perfil y experiencia

Formación: Licenciatura en Sistemas Computacionales, Informática, Ingeniería en Software o afín.
Experiencia: 4+ años en análisis de sistemas, desarrollo de software o roles similares. Deseable experiencia en ERP, CRM o herramientas BI.
Conocimientos técnicos clave: Python o R; SQL Server; Power BI o herramientas BI equivalentes; Microsoft Dynamics (modulos gerenciales); diseño de bases de datos, ETL y modelado dimensional; Office medio; entornos cloud (AWS, GCP o Azure); Excel.
Competencias: análisis y pensamiento estratégico; capacidad de traducir requerimientos técnicos a lenguaje empresarial; orientación a resultados; proactividad; trabajo en equipo; adaptabilidad y aprendizaje continuo; gestión del tiempo; resolución de problemas; apertura al feedback y mejora continua; precisión en manejo de información crítica.

Requisitos deseables

Experiencia en implementación de sistemas ERP, CRM o herramientas BI; familiaridad con métricas de negocio y KPIs; experiencia en entornos ágiles; habilidades de comunicación para presentar resultados a dirección y negocio.

Beneficios y condiciones

💼 Beneficio del puesto: 100% nómina
💰 Contrato indefinido
Prestaciones de ley:

  • 12 días de vacaciones desde el primer año
  • 15 días de aguinaldo
  • 25% de prima vacacional

✨ Prestaciones superiores:

  • vales de despensa
  • bono anual de desempeño
  • seguro de gastos médicos mayores para el personal y familiares directos
  • plataforma de telemedicina
  • TotalPass para gimnasios
  • descuentos corporativos en salud, educación, bienestar, consumo y entretenimiento.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Senior Data Engineer
  • Vemo México
  • Ciudad de México (In-office)
Python Git SQL Big Data

Acerca de VEMO: Somos una empresa de electromovilidad en expansión que impulsa la movilidad limpia combinando tecnología, datos y energía sostenible para LATAM. Construimos productos digitales y plataformas que soportan la operación de electromovilidad y trabajamos con metodologías ágiles, priorizando innovación y una cultura de aprendizaje continuo. El rol de Senior Data Engineer contribuirá a consolidar y modernizar nuestra infraestructura de datos para acelerar la toma de decisiones a través de prácticas modernas de ingeniería de datos.

Exclusive to Get on Board.

Responsibilities and Goals

  • Diseñar, construir y operar soluciones de datos escalables y robustas alineadas a las necesidades del negocio.
  • Consolidar y modernizar la infraestructura en Microsoft Fabric y Azure (Lakehouse, Warehouse, Data Factory).
  • Construir y mantener pipelines de ingestión y transformación de datos, incluyendo procesos incrementales y estrategias de CDC.
  • Modelar y operar data marts y productos de datos para distintas áreas de negocio.
  • Optimizar el rendimiento de consultas, pipelines y almacenamiento, asegurando eficiencia de recursos.
  • Implementar estándares de data governance: versionamiento, linaje, seguridad y buenas prácticas de codificación.
  • Colaborar con analistas, científicos de datos y equipos de negocio para traducir necesidades en soluciones técnicas sólidas.
  • Automatizar procesos, mejorar observabilidad y asegurar confiabilidad mediante monitoreo y alertas.
  • Documentar arquitectura, procesos y reglas de negocio de forma clara y mantenible.
  • Participar en revisiones técnicas, definir estándares y mentoría a miembros del equipo.

Perfil y habilidades

Formación académica en Ingeniería en Sistemas, Computación, TI, Matemáticas Aplicadas o campo afín. Se valora maestría o diplomado en ingeniería de datos, big data o nube. Experiencia de 5 a 8 años en puestos de datos o ingeniería de software, con al menos 3 años en ingeniería de datos y 2 años trabajando con Azure Data Platform (ADF, Synapse, Databricks o Fabric). Se requiere experiencia operando pipelines de datos en producción con altos volúmenes y diseño de modelos de datos y arquitecturas escalables en entornos cloud. Conocimientos clave: SQL avanzado, Azure Data Lake/OneLake, Lakehouse, Data Warehouse; orquestación con Data Factory, Synapse Pipelines o Fabric Pipelines; patrones de ingesta incremental y CDC; modelado de datos (dimensiones, hechos, SCDs, star schema); Python o PySpark (deseable); Git, CI/CD y buenas prácticas; observabilidad (logs, métricas, alertas). Certificaciones DP-700, DP-600, DP-203, DP-500, AZ-900 son valoradas.

Requisitos y cualidades deseables

Mentalidad de producto enfocada en escalabilidad y mantenibilidad. Capacidad de trabajar de forma colaborativa con Analytics, Data Science, Operaciones y Tecnología. Habilidad para comunicar ideas técnicas a audiencias no técnicas y mantener enfoque en calidad, confiabilidad y documentación rigurosa. Capacidad de aprender y adaptarse a un entorno dinámico y de prioridades cambiantes.

Ofrecemos

En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Oportunidades de desarrollo profesional en tecnología y negocio. Prestaciones de ley y superiores, con contratación indefinida.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Science Lead
  • Grupo Mariposa
Python Analytics Big Data Azure
Grupo Mariposa es una corporación multinacional de bebidas y alimentos fundada en 1885, con presencia en más de 14 países y un equipo de más de 15,000 colaboradores. Nuestro portafolio de bebidas es el más extenso de la región, y contamos con socios estratégicos como PepsiCo y AB InBev. En el último año, hemos experimentado una expansión global que nos ha permitido estructurarnos en 4 unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Con una estrategia dinámica de crecimiento, buscamos talentos que se unan a nuestras ambiciones de llevar alegría y desarrollo más lejos.

This job offer is available on Get on Board.

Funciones del cargo

El Data Science Lead será responsable de definir, liderar y escalar la estrategia de ciencia de datos y machine learning para la región, garantizando el diseño, desarrollo e industrialización de modelos analíticos avanzados que generen impacto medible en el negocio. Este rol combina liderazgo técnico en Data Science, visión de producto, entendimiento profundo del negocio y gestión de equipos, actuando como socio estratégico de producto, comercial y tecnología dentro de la organización.
Responsabilidades Clave:
1. Estrategia de Ciencia de Datos y Analítica Avanzada:
  • Definir y evolucionar la estrategia regional de Data Science, alineada con los objetivos comerciales, de producto y Go To Market.
  • Identificar, evaluar y priorizar casos de uso de alto impacto (ML, optimización,forecasting, simulación, analítica avanzada).
  • Diseñar frameworks reutilizables de modelado analítico para su adopción en múltiples países.
2. Desarrollo de Modelos Avanzados y Calidad Analítica:
  • Liderar el diseño y revisión de modelos de machine learning y analítica avanzada,
    tales como: modelos predictivos y de clasificación, optimización y simulación, forecasting de demanda y ventas
3. Industrialización, MLOps y Producción
  • Trabajar de forma estrecha con Data Engineering y MLOps para asegurar: Versionado de modelos, Automatización de entrenamiento y despliegue, Monitoreo de performance y drift y Retraining controlado
  • Asegurar la correcta operación de modelos en entornos productivos sobre Databricks
    y cloud.
4. Gobierno Analítico, Datos y Explicabilidad
  • Garantizar el uso correcto de datos confiables y gobernados para los modelos.
  • Alinear los desarrollos analíticos con prácticas de:
    o Data Governance
    o Data Quality
    o Seguridad y privacidad de datos
5. Liderazgo:
  • Liderar y mentorizar equipos regionales de Data Scientists
  • Actuar como punto de enlace entre: Producto, Data Engineering, BI, DevOps y Áreas comerciales
  • Definir estándares técnicos, metodológicos y de documentación.

Requerimientos del cargo

Formación:
  • Licenciatura o Maestría en Ciencias de la Computación, Estadística, Matemática, Economía, Ingeniería, Data Science o carreras afines.
Experiencia:
  • +7 años de experiencia en Ciencia de Datos, Machine Learning o Analítica Avanzada.
  • Experiencia liderando equipos de Data Science a nivel regional o multi-país.
  • Experiencia comprobada llevando modelos a producción.
  • Dominio de entornos de Big Data y analítica distribuida.
Conocimientos técnicos:
  • Python y Pyspark avanzado.
  • Frameworks de ML (scikit-learn, TensorFlow, PyTorch).
  • Databricks como plataforma analítica.
  • Fundamentos sólidos de estadística, optimización y modelado.
  • Conocimiento práctico de MLOps.
  • Experiencia en cloud, preferentemente Azure.

Opcionales

  • Experiencia en Azure / GCP / Retail / Consumo Masivo.
  • Experiencia en entornos multi-país.

Condiciones

  • Ambiente de trabajo colaborativo y dinámico.
  • Desarrollo profesional continuo y oportunidades de crecimiento.
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal.

APPLY VIA WEB
$$$ Full time
Data Analyst (Proyecto)
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis
BC Tecnología, una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales, busca incorporar un/a Data Analyst para un proyecto estratégico. El rol apoya la toma de decisiones basada en datos y la optimización de iniciativas digitales en un entorno con clientes de alto nivel y sector financiero. El/la profesional trabajará en un equipo ágil, colaborando con Product Owner y stakeholders para definir indicadores, priorizar iniciativas y generar insights accionables que impulsen el negocio.
La misión del proyecto es asegurar que las iniciativas digitales cuenten con métricas claras y dashboards ejecutivos para respaldar decisiones estratégicas, optimizando procesos y resultados. Se trabajará en un entorno híbrido, con foco en entrega de valor y mejora continua, y la posibilidad de involucrarse en otras áreas de la consultora según necesidades y desempeño.

This posting is original from the Get on Board platform.

Funciones

  • Definir y monitorear KPIs del negocio, asegurando que las métricas estén alineadas con los objetivos estratégicos.
  • Construcción y análisis de dashboards ejecutivos con Power BI, incorporando visualizaciones efectivas y análisis de tendencias.
  • Apoyar en la priorización del backlog junto al Product Owner, traduciendo requerimientos de negocio en historias y métricas.
  • Analizar el impacto de funcionalidades digitales, identificando oportunidades de mejora y priorizando acciones con base en datos.
  • Generar insights accionables para el negocio y presentar hallazgos a equipos multifuncionales y alta dirección.

Descripción

Buscamos un/una Data Analyst con al menos 2–3 años de experiencia en análisis de datos, SQL, Python y Power BI. Se valorará experiencia en entornos cloud (Azure o AWS) y en Databricks. Se trabaja bajo metodologías ágiles (Scrum/Kanban). Requisitos: capacidad analítica, atención al detalle, comunicación efectiva y orientación a resultados. El/la candidato/a ideal debe poder transformar datos en insights accionables, trabajar de forma colaborativa y gestionar prioridades en un entorno dinámico.

Perfil deseable

Conocimientos en Databricks, experiencia en construcción de dashboards para ejecutivos, familiaridad con procesos de datos en la nube y capacidad de trabajar en proyectos con plazos ajustados. Se valora proactividad, pensamiento crítico y habilidad para explicar complejidades técnicas a audiencias no técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $3200 - 4100 Full time
Senior Data Scientist
  • Artefact LatAm
Python Git Data Analysis SQL

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Scientist es un profesional altamente experimentado en el análisis de datos, con profundos conocimientos en técnicas estadísticas, de programación y de aprendizaje automático. Su rol principal es utilizar estas habilidades para extraer conocimientos significativos y tomar decisiones estratégicas basadas en datos dentro de la organización.

Además de desarrollar modelos analíticos avanzados, el Data Scientist Senior ejerce un rol importante dentro del equipo asignado al cliente, aportando con su conocimiento técnico para poder tomar decisiones concretas que ayuden al desarrollo del proyecto. Su experiencia ayuda en la conceptualización hasta la implementación, y asegura la entrega de soluciones prácticas y detallistas que cumplan con las necesitas del cliente.

Apply without intermediaries from Get on Board.

Tus responsabilidades serán:

  • Análisis de Datos: Aplicar técnicas avanzadas de análisis exploratorio para comprender la estructura y características de grandes volúmenes datos, provenientes de diversas fuentes.
  • Desarrollo de Modelos Predictivos Avanzados: utilizar técnicas avanzadas de aprendizaje automático y estadística para desarrollar modelos predictivos robustos que permitan predecir tendencias, identificar patrones y realizar pronósticos precisos.
  • Optimización de Algoritmos y Modelos: dirigir la optimización de algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad.
  • Visualización y Comunicación de Datos: crear visualizaciones claras y significativas para comunicar los hallazgos y resultados de manera efectiva al cliente y a otros stakeholders clave.
  • Desarrollo de Herramientas Analíticas: diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguajes de programación como Python, R o SQL.
  • Gestión de Proyectos: liderar frentes de un proyecto relacionados al análisis de datos complejos, desde la conceptualización hasta la implementación, planificando estratégicamente los hitos y entregables acordados con los clientes.
  • Investigación y Desarrollo Continuo: mantenerse actualizado en las últimas tendencias y avances en análisis de datos, inteligencia artificial y metodologías relacionadas. Compartir conocimientos y experiencias con el equipo para fomentar un ambiente de aprendizaje continuo.
  • Contribución a Propuestas y Desarrollo de Negocios: colaborar en el desarrollo de propuestas internas para potenciales clientes, utilizando su experiencia y conocimientos para identificar oportunidades y diseñar soluciones innovadoras.
  • Apoyar al equipo desde un rol de mentor, traspasando conocimientos y buenas prácticas, proporcionándole capacitación personalizada según las necesidades individuales de los miembros.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, Física, Estadística, carreras afines, o experiencia equivalente en análisis avanzado de datos.
  • Experiencia laboral de al menos 4 años en roles de análisis de datos, preferiblemente en industrias relevantes.
  • Experto en Python, SQL y Git, con habilidades demostradas en el desarrollo de modelos analíticos y aplicaciones.
  • Amplio conocimiento de bases de datos relacionales y no relacionales, así como experiencia en procesamiento de datos (ETL).
  • Profundo conocimiento en machine learning, feature engineering, reducción de dimensiones, estadística avanzada y optimización.
  • Inglés avanzado.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal y medio día libre de cumpleaños. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por desempeño de la empresa, además de bonos por trabajador referido y por cliente.
  • Almuerzos quincenales pagados con el equipo (Chile) o Tarjeta de Alimentación (México).
  • Cobertura de salud adicional (Mexico).
  • Computadora de altos specs para trabajar cómodamente.
  • Flexibilidad horaria y trabajo por objetivos.
  • Posibilidad de participar en proyectos a nivel global, con intercambios con otros países con presencia del grupo.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Ciudad de México).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage Artefact LatAm pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $2800 - 3100 Full time
Lider Técnico AWS – Datos
  • BC Tecnología
  • Santiago (Hybrid)
Agile SQL Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con enfoque en servicios, outsourcing y selección de profesionales, que acompaña a clientes de sectores como finanzas, seguros, retail y gobierno. En este rol, liderarás proyectos de datos en entornos cloud para clientes de alto perfil, asegurando soluciones escalables y alineadas a estándares de arquitectura. Trabajarás en un entorno ágil para diseñar e implementar soluciones de datos (ETL/ELT), gobernanza de datos y migraciones a la nube, colaborando estrechamente con equipos de Infraestructura, Desarrollo y Unidades de Negocio. Participarás en iniciativas de mejora continua, calidad de entrega y gobierno de datos, impulsando buenas prácticas de CI/CD y cumplimiento normativo. En un entorno híbrido, combinarás trabajo remoto con presencia en nuestras oficinas para colaborar de forma eficiente con stakeholders y equipos multidisciplinarios.

Apply from getonbrd.com.

Funciones principales

  • Liderar tecnicamente equipos de datos y proyectos AWS orientados a soluciones de ingesta, procesamiento y almacenamiento de datos.
  • Gestionar stakeholders y asegurar alineación de expectativas, alcance y plazos.
  • Diseñar y revisar arquitecturas de datos escalables (ETL/ELT, data lakes, data warehouses) utilizando servicios AWS (Glue, S3, Redshift, Lambda, Step Functions).
  • Garantizar gobernanza de datos, calidad, seguridad y cumplimiento de buenas prácticas de CI/CD y control de versiones.
  • Promover prácticas ágiles (Scrum/Kanban), liderazgo técnico, mentoring y desarrollo de capacidades del equipo.
  • Identificar y gestionar riesgos técnicos, definir indicadores de rendimiento y ejecutar planes de mitigación.
  • Colaborar con áreas de Infraestructura, Desarrollo y negocio para entregar soluciones alineadas a objetivos estratégicos.
  • Participar en revisiones de arquitectura, diseño de soluciones y documentación técnica.

Requisitos y perfil

Buscamos un Líder Técnico AWS con al menos 5 años de experiencia liderando proyectos y equipos de datos en entornos cloud. Se valorará experiencia sólida en proyectos de datos (ETL/ELT, arquitecturas escalables) y conocimiento profundo de servicios AWS como AWS Glue, S3, Redshift, Lambda y Step Functions. Se requiere experiencia en entornos ágiles (Scrum/Kanban), así como gobernanza de datos, CI/CD y buenas prácticas de calidad. El candidato ideal combinará habilidades técnicas sólidas con capacidad de liderazgo, comunicación efectiva y orientación a resultados.
Habilidades técnicas: diseño de arquitecturas de datos, orquestación de pipelines, proficient en SQL, modelado de datos, seguridad y cumplimiento, gestión de stakeholders, migraciones a la nube.
Competencias blandas: liderazgo colaborativo, comunicación clara, pensamiento estratégico, orientación a soluciones, capacidad de influencia y trabajo en equipo multifuncional.

Desirable

Certificaciones en AWS (por ejemplo, AWS Certified Solutions Architect – Professional o AWS Certified Data Analytics) son una ventaja. Experiencia con herramientas de orquestación adicionales, ciencia de datos, o herramientas de observabilidad y monitoreo de datos. Conocimientos en gobernanza de datos, calidad y metadatos, y experiencia en proyectos en sectores regulados también son deseables.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB
Gross salary $2800 - 3600 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes
Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Send CV through getonbrd.com.

Responsabilidades del cargo

  • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
  • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
  • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
  • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
  • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Calificaciones y Requisitos del cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2500 - 3700 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes

Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Apply directly on the original site at Get on Board.

Responsabilidades del Cargo

    • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
    • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
    • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
    • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
    • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Requisitos del Cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Consideración

Favor considerar adjuntar cv en Ingles actualizado al momento de postular

Beneficios

    • Un entorno de colaboración y rápido movimiento
    • Formar parte de una empresa internacional con sede en Estados Unidos
    • Asignación de reembolso por aprendizaje y desarrollo
    • Remuneración competitiva y oportunidades de promoción profesional y personal
    • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
    • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Technical Business Analyst
  • 2BRAINS
  • Nuevo León (In-office)
SQL E-commerce Postman Business Analyst

2Brains es una consultora tecnológica que impulsa el crecimiento y la evolución de organizaciones líderes en Latinoamérica. Diseñamos y construimos el futuro digital de nuestros clientes a través de una integración profunda y estratégica de negocio, experiencia y tecnología, convirtiendo desafíos complejos en impacto real.

Hoy, 2Brains forma parte de Acid Labs, uno de los principales grupos de consultoría tech e innovación de la región. Esta adquisición fortalece nuestra propuesta de valor, ampliando nuestra escala, capacidades tecnológicas y presencia regional, y nos permite acompañar a nuestros clientes con soluciones más robustas, ágiles y de alto impacto en todo su ciclo de transformación.

Official source: getonbrd.com.

¿Cuales serán tus responsabilidades como Technical Business Analyst?

  • Levantar, analizar y documentar requerimientos funcionales y técnicos.
  • Modelar procesos mediante diagramas de flujo, reglas de negocio y lógica de integración.
  • Definir criterios de aceptación técnicos y funcionales, validando escenarios complejos.
  • Acompañar a los equipos de desarrollo resolviendo dudas de negocio y lógica funcional.
  • Apoyar la validación de integraciones entre frontend, backend y servicios externos.
  • Colaborar estrechamente con Product Owner y Project Manager durante todo el ciclo de desarrollo.

¿Qué conocimientos buscamos en el/la Technical Business Analyst?

  • Análisis de procesos y levantamiento de requerimientos en proyectos digitales.
  • Experiencia en plataformas transaccionales, e-commerce o ecosistemas complejos.
  • Conocimiento en APIs, flujos de integración y lógica de sistemas distribuidos.
  • Uso de herramientas como Postman, SQL u otras de inspección técnica.
  • Documentación funcional y técnica clara y estructurada.

¿Qué competencias buscamos en el/la Technical Business Analyst?

  • Pensamiento analítico y atención al detalle.
  • Capacidad para traducir necesidades de negocio en soluciones técnicas.
  • Comunicación clara con perfiles técnicos y no técnicos.
  • Proactividad y autonomía en la gestión de tareas.
  • Trabajo colaborativo y orientación a la calidad.

Te ofrecemos:

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.

APPLY VIA WEB
$$$ Full time
Business Analyst – Digital Analytics & BI
  • WiTi
  • Montevideo &nbsp Santiago (Hybrid)
JavaScript Python Analytics SQL

WiTi es una empresa chilena de tecnología con presencia en Chile, Uruguay y Colombia, dedicada a la innovación en software y soluciones tecnológicas. Formamos parte de un equipo que presta servicios a clientes de primer nivel y trabajamos con un enfoque ágil para impulsar soluciones de analítica digital y BI en grandes retailers con operaciones en múltiples países de Latinoamérica. El proyecto actual se centra en analizar el comportamiento de usuarios en canales digitales (Web y App) para optimizar la experiencia de compra de millones de clientes a través de e-commerce. El Business Analyst reporta al equipo de Digital Analytics & BI y colabora con equipos de desarrollo, marketing y producto para asegurar que las estrategias de medición sean correctas, que el tagging y los pixeles se implementen adecuadamente y que existan dashboards útiles y accionables.

Job source: getonbrd.com.

Funciones y responsabilidades

  • Generar documentos de marcaje basados en estrategias de medición para equipos de desarrollo.
  • Gestionar y hacer seguimiento del tagging con equipos técnicos y proveedores externos cuando aplique.
  • Implementar tagging y píxeles usando Google Tag Manager (GTM) para Web y App.
  • Analizar datos para identificar quiebres en la experiencia y proponer mejoras concretas.
  • Crear dashboards y visualizaciones sobre el comportamiento de usuarios en Web y App para soportar la toma de decisiones.
  • Realizar seguimiento al embudo de compra en distintos e-commerce y monitorizar KPIs de conversión y retención.
  • Buscar proactivamente oportunidades de mejora y priorizar iniciativas en colaboración con stakeholders.
  • Realizar QA continuo del marcaje para garantizar datos precisos y confiables.

Descripción y requisitos

Buscamos un Business Analyst con al menos 1 año de experiencia en roles similares, orientado a análisis de experiencia de usuario y medición de datos en entornos de retail y e-commerce. Requerimos conocimiento intermedio de Google Analytics, Google Tag Manager, BigQuery y Looker, además de SQL a nivel intermedio, todo lo anterior es EXCLUYENTE. Se valora un nivel de Inglés avanzado. Es deseable disponer de experiencia con JavaScript para GTM y Python.

El perfil ideal posee habilidad para trabajar de forma proactiva en un entorno ágil, capacidad de comunicar hallazgos de negocio a distintas audiencias y una mentalidad orientada a la mejora continua. Si te apasiona la analítica, la toma de decisiones basada en datos y quieres formar parte de un equipo dinámico, te invitamos a postularte.

Requisitos deseables

Conocimientos prácticos de JavaScript para GTM y Python para soporte de scripts de análisis y automatización de datos. Experiencia en creación de dashboards avanzados y storytelling de datos para stakeholders de negocio. Capacidad de trabajar con datasets grandes y complejos, optimización de consultas en BigQuery y comprensión de modelos de atribución. Buenas habilidades de comunicación en español e inglés, y experiencia previa trabajando en contextos multicanal (Web, App, Marketing).

Beneficios

En WiTi, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
AI Database Engineer
  • Niuro
PostgreSQL SQL Oracle Virtualization

Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. We design and deliver autonomous, high-performance engineering squads that handle complete administrative tasks (hiring, payments, training) so teams can focus on impactful work. Our mission is to simplify global talent acquisition with innovative solutions that maximize efficiency and quality.

You will contribute to industrial data projects that require reliable, secure, and scalable database platforms. You’ll work within a production-focused, engineering-first culture where databases are treated as core systems. While AI is applied selectively to improve operations, all work adheres to strict guardrails, traceability, and production safety. This role sits at the intersection of database engineering, platform operations, and AI-assisted tooling to reduce manual toil and improve operational leverage across our client deployments.

This job is available on Get on Board.

What You’ll Do

  • Design, operate, and support both relational and non-relational database platforms in production environments.
  • Own backup, restore, high-availability, and disaster-recovery strategies and execution.
  • Drive performance tuning, capacity planning, and reliability improvements.
  • Support migrations, upgrades, and modernization initiatives for database estates.
  • Operate cloud-native and hybrid database platforms in AWS or Azure.
  • Apply infrastructure-as-code and standardized provisioning patterns for database systems.
  • Collaborate with Platform and Infrastructure teams to ensure consistency, safety, and scalability.
  • Build and maintain AI agents and AI-assisted tools to support database workloads (investigation, monitoring, triage, runbooks).
  • Integrate AI agents with databases and internal APIs using production-safe patterns.
  • Participate in incident response, root cause analysis, and remediation efforts.
  • Join on-call rotations and provide production support as needed.
  • Produce and maintain runbooks, SOPs, and operational documentation; continuously improve tooling to reduce manual work.

Required Skills & Experience

We are seeking a hands-on AI Database Engineer with a strong foundation in database engineering and production operations. You should have 4–6 years of experience in database engineering or administration in production environments and be comfortable working across multiple database platforms (e.g., PostgreSQL, SQL Server, Oracle). You will thrive in a fast-paced, globally distributed team, delivering reliable data services and helping to automate repetitive tasks with AI-assisted workflows.
Key capabilities:
  • Deep expertise in high availability, backup/restore, disaster recovery, and performance optimization.
  • Proven experience operating cloud database services in AWS or Azure.
  • Strong scripting and automation skills; experience with IaC tooling (e.g., Terraform, CloudFormation) and deployment pipelines.
  • Practical experience applying AI-assisted tools to support engineering or operational workflows in production.
  • Excellent problem-solving, debugging, and incident response capabilities with a production-first mindset.
  • Solid understanding of data security, compliance, and data protection practices in regulated environments is a plus.
  • Collaborative mindset: ability to work with SRE/Platform Engineering, Application teams, and other stakeholders.

Nice to Have / Preferred Experience

Experience building internal tools or automation that integrates databases with AI-assisted systems; familiarity with agent-based or tool-oriented AI patterns used in production operations; exposure to SaaS, data-intensive environments, and regulated contexts. Prior work in data protection, privacy considerations, and security auditing is highly valued. Experience collaborating closely with SRE or Platform Engineering teams is a plus.

Benefits & Growth

Niuro offers a fully remote, globally distributed work model with strong administrative support, enabling you to focus on impactful, technically rigorous work. You’ll have access to ongoing career development programs, leadership opportunities, and training in both technical and soft skills. We emphasize technical excellence, collaboration, and continuous innovation, with clear paths for progression into senior and leadership roles. Successful performance on initial engagements may lead to long-term, stable full-time opportunities with our client partners. You’ll join a supportive community that values growth, quality, and work-life balance.

APPLY VIA WEB
$$$ Full time
Data Engineer AWS
  • BC Tecnología
Agile SQL Virtualization Big Data
En BC Tecnología buscamos Data Engineer AWS para colaborar en proyectos de alto impacto para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo, parte de una consultora de TI con enfoque en soluciones innovadoras, trabaja en entornos de Big Data y nube, diseñando y operando infraestructuras escalables para procesamiento de datos y analítica avanzada. Participarás en proyectos de migración, diseño de pipelines de datos, implementación de soluciones en AWS y operaciones de datos, con un enfoque en calidad, seguridad y cumplimiento. Formarás parte de un equipo ágil que impulsa soluciones orientadas al negocio y la eficiencia operativa.

Applications are only received at getonbrd.com.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos en entornos AWS (Glue, Lambda, Step Functions, Redshift, Athena, Lake Formation).
  • Gestionar arquitectura de datos y clústeres, asegurando rendimiento, escalabilidad y seguridad de la información.
  • Implementar políticas IAM y controles de acceso, garantizando cumplimiento y buenas prácticas de seguridad.
  • Colaborar con científicos de datos y equipos de negocio para transformar requerimientos en soluciones técnicas eficientes.
  • Participar en la mejora continua de procesos, automatización y monitoreo de flujos de datos.

Perfil y habilidades

  • Experiencia mínima de 2 años como Data Engineer, preferentemente en entornos Big Data y nube AWS.
  • Conocimientos en AWS: Glue, Lambda, Step Functions, Redshift, Lake Formation, SQL, Athena y gestión de políticas IAM.
  • Experiencia con bases de datos y arquitecturas de clústeres; capacidad para optimizar rendimiento y costos.
  • Fuerte capacidad de resolución de problemas, pensamiento analítico y orientación a resultados.
  • Buen comunicador, capaz de trabajar en equipos ágiles y adaptar soluciones a requerimientos de negocio.
  • Idiomas: español; se valoran habilidades en inglés técnico.

Requisitos Deseables

  • Certificaciones AWS (por ejemplo, AWS Data Analytics, AWS Solutions Architect).
  • Experiencia en orquestación de datos y herramientas de orquestación adicional (por ejemplo, Step Functions, Airflow).
  • Conocimientos en seguridad de datos, cumplimiento normativo y buenas prácticas de DevOps/DataOps.
  • Experiencia en proyectos de migración de datos, tratamiento de datos sensibles y observabilidad de pipelines.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2800 - 3000 Full time
Data Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Git SQL NoSQL
Genesys Tecnologías de Inform. SpA, una empresa con más de 30 años liderando proyectos de desarrollo de software y servicios TI en Latinoamérica, busca incorporar un/a Data Engineer para trabajar en un proyecto de alto nivel tecnológico. El equipo participa en una fábrica de desarrollo de software y servicios de outsourcing para clientes de primer nivel. El rol ofrece la oportunidad de diseñar, construir y escalar soluciones de datos dentro de una organización consolidada, con presencia en Concepción y Santiago, y colaboración estrecha con equipos multidisciplinarios para impulsar la transformación digital.

Apply to this posting directly on Get on Board.

Qué harás

  • Participar en el diseño y mantención de pipelines de datos (ETL / ELT).
  • Trabajar con bases de datos relacionales y no relacionales.
  • Asegurar la ingesta y transformación de datos en batch y tiempo real.
  • Colaborar con equipos de negocio y tecnología para resolver problemas reales.
  • Aprender buenas prácticas de cloud, automatización y CI/CD.
  • Documentar, reportar avances y proponer mejoras continuas.

Requisitos y perfil

Formación en Ingeniería, Computación, Informática o carrera afín. Inglés avanzado (oral y escrito). Conocimientos base en SQL y bases de datos; Python para procesamiento de datos; conceptos de Data Warehouse y pipelines. Interés en herramientas como Airflow, DBT, AWS/Cloud, Git y CI/CD. Actitud proactiva, pensamiento analítico y ganas de crecer. No es requisito dominar todas las herramientas; valoramos el potencial y el compromiso con el aprendizaje. Altamente motivados por aprender en un entorno exigente pero formativo.

Deseables pero no requeridos

Experiencia previa en entornos de datos y proyectos de ingesta/transformación de datos; conocimientos de grandes volúmenes de información; exposición a arquitecturas en producción. Familiaridad con prácticas de seguridad y gobernanza de datos, así como metodologías ágiles. Disponibilidad para colaborar en un entorno híbrido y multicultural.

Qué ofrecemos

Proyecto estable en cliente de alto nivel tecnológico. Modalidad híbrida. Horario flexible: Lunes a jueves 08:30-18:00, Viernes 08:30-17:30. Aprendizaje continuo y crecimiento profesional real. Trabajo con tecnologías modernas y desafíos reales de negocio. Formación y desarrollo dentro de una empresa consolidada en Latinoamérica con más de 30 años de experiencia. Equipo multidisciplinario y apoyo técnico continuo desde la matriz en Santiago y otras operaciones. 😊

APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Engineer
  • Artefact LatAm
Python Big Data English Back-end

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Engineer tendrá la responsabilidad de liderar el desarrollo de proyectos de Big Data con clientes, diseñando y ejecutando arquitecturas de datos que sirvan como puente entre la estrategia empresarial y la tecnología, bajo los principios de gobernanza de datos establecidos por los clientes. Además, será responsable de diseñar, mantener e implementar estructuras de almacenamiento de datos tanto transaccionales como analíticas. Este rol implica trabajar con grandes volúmenes de datos provenientes de diversas fuentes, procesarlos en entornos de Big Data y traducir los resultados en diseños técnicos sólidos y datos consistentes. También se espera que revise la integración consolidada de datos y describa cómo la interoperabilidad capacita a múltiples sistemas para comunicarse entre sí.

This job is exclusive to getonbrd.com.

Tus responsabilidades serán:

  • Diseñar arquitecturas de datos que cumplan con los requisitos de los clientes y se alineen con su estrategia empresarial, asegurando la adherencia a los principios de gobernanza de datos.
  • Diseñar, implementar, mantener y actualizar estructuras de almacenamiento de datos transaccionales y analíticas, garantizando la integridad y disponibilidad de los datos.
  • Extraer datos de diversas fuentes y transferirlos eficientemente a entornos de almacenamiento de datos.
  • Diseñar e implementar procesos que soporten grandes volúmenes de datos en entornos de Big Data, utilizando herramientas y tecnologías pertinentes en cada proyecto.
  • Comunicar hallazgos, resultados y diagnósticos efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Colaborar con equipos multidisciplinarios en la gestión estratégica de proyectos, asegurando la entrega oportuna y exitosa de soluciones de datos.
  • Desarrollar y mantener soluciones en la nube y on premise.
  • Utilizar metodologías ágiles para el desarrollo y entrega de soluciones de datos, adaptándose rápidamente a los cambios y requisitos del proyecto.
  • Apoyar al equipo traspasando conocimientos y buenas prácticas, apoyando en la capacitación y aprendizaje continuo según las necesidades individuales de los miembros
  • Gestionar al equipo mediante una planificación estratégica del proyecto, asegurando una distribución eficiente de tareas y una comunicación clara de los objetivos.

Los requisitos del cargo son:

  • Experiencia mínima de 3 años en el uso de herramientas de gestión de datos.
  • Experiencia previa en la gestión estratégica de equipos multidisciplinarios.
  • Conocimientos avanzados de Python o Pyspark y experiencia en su aplicación en proyectos de datos.
  • Experiencia en el diseño e implementación data warehouse, data lakes y data lake house
  • Desarrollo de soluciones de disponibilización de datos.
  • Experiencia práctica con al menos uno de los principales almacenes de archivos en la nube.
  • Buen manejo del inglés.

Algunos deseables no excluyentes:

  • Experiencia en consultoría y/ proyectos de estrategia o transformación digital
  • Experiencia con servicios de procesamiento y almacenamiento de datos de AWS o GCP, Azure
  • Certificaciones

Algunos de nuestros beneficios:

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros (Chile).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
Ingeniero Implementación de Negocios
  • BNP Paribas Cardif
  • Santiago (In-office)
Data Analysis Excel SQL Power BI

¿Quieres ser parte de los líderes en la revolución de los seguros? 😎

BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

Hoy buscamos a un Ingeniero de Implementación de Negocios que se sume al equipo de Gestión y Eficiencia Operacional. Tu misión será planificar la implementación operacional de nuevos negocios o modificaciones de productos, gestionando y coordinando con las distintas áreas de la compañía, las actividades requeridas para lograr una correcta y oportuna implementación.

Apply directly on the original site at Get on Board.

Job functions

¿Cuáles son los principales desafíos del cargo? 🤯

  • Evaluación de la factibilidad operativa de un negocio.
  • Planificar la generación de nuevos productos, y velar por el cumplimiento de las actividades relacionadas con este proceso, de cara a otras gerencias.
  • Coordinar la implementación global de nuevos negocios al interior de Operaciones, en base a las definiciones de la Compañía y la arquitectura de los Sistemas.
  • Acompañar a líneas Operativas durante 2 ciclos productivos, ajustando en caso de encontrar errores.
  • Realizar estudios y generar indicadores adecuados para la detección de mejoras en la Implementación.
  • Generar informes que apoyen la toma de decisiones de implementación del Gerente de Operaciones.
  • Crear catálogos de servicio y desarrollar capacitación interna.
  • Generación de Fichas de Implementación y Estabilización

Qualifications and requirements

Requisitos 🔍:

  • Ingeniero Civil Industrial, Ingeniería Comercial o carreras afines.
  • Con experiencia en cargos similares, de análisis y reportería.
  • Conocimiento avanzado de Excel, SAS, SQL. (Ultimos 2 no excluyentes).
  • Conocimiento Básico – Intermedio de Power BI. No excluyente.
  • Nivel de inglés intermedio – avanzado.
  • Deseable conocimiento del ámbito asegurador.

Conditions

¿Y cuáles son nuestros beneficios?

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • ¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.
  • Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.
  • Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

Partially remote You can work from your home some days a week.
Health coverage BNP Paribas Cardif pays or copays health insurance for employees.
Computer provided BNP Paribas Cardif provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Lead Cloud Data Engineer
  • Signant Health
Python SQL DevOps Virtualization

About Signant Health

Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations, and reimagining the path to proof.

Where do you fit in?

As a Lead Cloud Data Engineer at Signant Health, you will play a pivotal role in architecting and optimizing our data infrastructure to drive innovative analytics and data products.

This job is exclusive to getonbrd.com.

Job functions

-Designing and developing high-level technical architectures for both streaming and batch processing systems to ensure scalability and efficiency.
-Creating reusable components, frameworks, and libraries at scale to empower analytics data products and accelerate development.
-Conducting proof-of-concepts (POCs) on emerging technologies and architectural patterns to stay ahead of industry trends.
-Collaborating with business and technology stakeholders to design and implement product features that align with strategic goals.
-Proactively identifying and resolving data management issues to enhance data quality and reliability.
-Cleaning, preparing, and optimizing large-scale data for seamless ingestion and consumption across platforms.
-Leading the implementation of new data management projects and restructuring existing data architectures for improved performance.
-Developing complex automated workflows and routines using advanced workflow scheduling tools.
-Establishing continuous integration, test-driven development, and production deployment frameworks to streamline delivery.
-Conducting collaborative reviews of designs, code, test plans, and dataset implementations to uphold data engineering best practices.
-Analyzing and profiling data to inform the design of scalable, high-performance solutions.
-Troubleshooting complex data issues through root cause analysis to resolve product and operational challenges preemptively.
-Partnering closely with product management to translate business requirements into actionable epics and deliverables.

Qualifications and requirements

-Proven experience leading development efforts and mentoring junior developers.
-Hands-on experience with AWS or Azure cloud platforms.
-Proficiency in Python for data processing and automation.
-Advanced SQL skills for querying and manipulating large datasets.
-A DevOps mindset with expertise in end-to-end software development practices.
-Experience with data movement using serverless technologies.

Desirable skills

-Familiarity with Snowflake for cloud data warehousing.
-Knowledge of Kafka for real-time data streaming.
-Experience with AWS Glue for ETL processes.
-Proficiency in Oracle or SQL Server databases.
-Background in API integration for seamless data connectivity.
-Hands-on experience with CI/CD automation tools like Jenkins.

Conditions

Pet-friendly Pets are welcome at the premises.
Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Software Engineer I (DataOps)
  • Wherex
  • Santiago (Hybrid)
Python SQL NoSQL Virtualization

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Aporta valor real en una célula de alto rendimiento con herramientas de vanguardia. Crece con profesionales especializados y conviértete en un profesional más completo en un entorno desafiante.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!

Apply without intermediaries from Get on Board.

Job functions

- Diseñar, construir y mantener pipelines de datos robustos y eficientes, que permitan la recolección, transformación y carga de datos desde múltiples fuentes internas y externas.
- Facilitar la generación de insights accionables mediante la entrega oportuna de datos confiables y enriquecidos para análisis de negocio.
- Implementar y optimizar modelos de almacenamiento (data lakes, data warehouses, bases relacionales y no relacionales), asegurando un balance entre performance, costo y escalabilidad.
- Monitorear continuamente los flujos y procesos automatizados, detectando y comunicando incidencias oportunamente para mantener una operación confiable.
- Garantizar la calidad de los datos, diseñando validaciones, controles y tests automáticos que aseguren la integridad, completitud y consistencia de la información.
- Aplicar estándares técnicos y de gobierno de datos, velando por la trazabilidad, documentación y cumplimiento de políticas de seguridad y privacidad.
- Colaborar activamente con analistas, científicos de datos y otras áreas de producto, entendiendo sus necesidades y generando soluciones que faciliten la toma de decisiones.
- Participar en ceremonias ágiles y espacios de coordinación técnica, asegurando el alineamiento con stakeholders y contribuyendo al trabajo colaborativo.
- Buscar continuamente oportunidades de mejora en herramientas, procesos y performance, priorizando soluciones reutilizables, escalables y orientadas a la eficiencia del equipo.
- Documentar de forma clara los pipelines, estructuras y decisiones técnicas, promoviendo la transferencia de conocimiento y mantención futura.

Qualifications and requirements

- Ingeniero Civil Industrial, Ingeniero Civil Informático o Ingeniero en Computación.
- Al menos 1 año de experiencia en roles de ingeniero de datos.
- Experiencia en: Python, bases de datos SQL y no relacionales (Mongo).
- Deseable experiencia trabajando con AWS o Azure.

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

APPLY VIA WEB
Gross salary $1400 - 1800 Full time
Business Analyst
  • ICONSTRUYE
  • Santiago (Hybrid)
Business Analyst

Sé el/la próxim@ Business Analyst que impulse la revolución digital de la construcción.

Acompáñanos a transformar una de las industrias más grandes de la región. En iConstruye no somos solo una plataforma; somos el ecosistema que conecta miles de obras, integrando la solución completa desde el pedido de materiales hasta el pago. Movemos los proyectos que construyen el futuro de Chile, Perú y Colombia.

Nos hemos propuesto romper los esquemas de lo tradicional. Somos un equipo apasionado por la tecnología, que se levanta cada día para resolver desafíos logísticos complejos y crear impacto real en más de 4.000 clientes. Si tienes hambre de crecimiento y quieres que tu talento se traduzca en resultados, este es tu lugar.

This job is original from Get on Board.

Tus próximos desafíos 🚀:

  • Diseñar, mantener y automatizar reportes de performance del área de Customer.
  • Monitorear métricas de satisfacción, tiempos de respuesta y eficiencia operativa.
  • Identificar oportunidades de mejora en procesos de atención y soporte al cliente.
  • Proponer e implementar iniciativas de eficiencia operativa.
  • Proveer insights al equipo de Customer y a la gerencia para definir estrategias.
  • Realizar análisis ad-hoc de performance, costos y capacidad operativa.
  • Coordinar y dar seguimiento a iniciativas de mejora continua.
  • Documentar procesos, políticas y mejores prácticas del área.
  • Trabajar en conjunto con Tecnología, Producto y Comercial para alinear objetivos.
  • Servir como nexo entre el equipo de Customer y otras áreas internas en la gestión de datos y métricas.

¿Qué esperamos🚀?

  • Formación en Ingeniería, Informática, Administración, Economía o carrera afín.
  • Experiencia mínima de 2–3 años como Business Analyst o rol similar.
  • Experiencia levantando, documentando y priorizando requerimientos de negocio.

Etapas del proceso🚀:

  • Entrevista online Team People (fit cultural).
  • Entrevista online con tu líder directo.
  • Entrevista presencial final con CEO.

✨Nuestros beneficios, pensados para ti✨:

  • 🌴 Más tiempo libre: Disfruta de 5 días extra de descanso al año para desconectarte y recargar energías.
  • 🍔 Amipass: tu partner foodie: Con tu tarjeta Amipass, elige libremente: un delivery en tu serie favorita, una salida con amigos o la compra del mes en el súper. Tú decides cómo darte el gusto
  • 👨‍⚕️ Siempre protegido: Te cuidamos a ti y a quienes quieres con seguro complementario de salud, dental y de vida.
  • 🏠 Trabajo a tu estilo: Con nuestra modalidad híbrida, combina lo mejor del home office y la oficina.
  • 👩‍👦 Viernes hasta las 14.00 hrs en vacaciones de verano y de invierno.
  • 🎂 Tu día, tuyo de verdad: En tu cumpleaños, te damos la tarde libre para celebrarlo como se merece.
  • 💸 Ajuste anual por IPC.
  • 💰 Aguinaldo en Fiestas Patrias y de Navidad.

Health coverage ICONSTRUYE pays or copays health insurance for employees.
Computer provided ICONSTRUYE provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ICONSTRUYE gives you paid vacations over the legal minimum.
Beverages and snacks ICONSTRUYE offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Power BI Engineer
  • WiTi
  • Santiago (Hybrid)
Analytics SQL Business Intelligence Power BI

WiTi es una empresa peru a innovar, dedicada a servicios de tecnología que transforma desafíos tecnológicos en soluciones innovadoras. Trabajamos con clientes líderes en Chile y la región, brindando talento TI de alto desempeño para proyectos de datos, analítica y transformación digital. Buscamos un/a Power BI Engineer para integrarse a un proyecto corporativo de analítica y datos, en un entorno dinámico de alta demanda de reporting, con énfasis en la orientación a usuarios internos, claridad comunicacional y entrega de tableros confiables para la toma de decisiones.

El rol se integra en un equipo de BI orientado a diseñar, implementar y optimizar soluciones de inteligencia de negocio que permitan compartir información estratégica a nivel corporativo. El proyecto favorece una cultura de datos, gobernanza, y una experiencia de usuario intuitiva para ejecutivos y usuarios de negocio.

Originally published on getonbrd.com.

Funciones

  • Levantar requerimientos con stakeholders y traducir necesidades de negocio en métricas, definiciones y visualizaciones en Power BI.
  • Diseñar, construir y mantener dashboards e informes en Power BI, priorizando rendimiento, usabilidad y consistencia.
  • Desarrollar y optimizar consultas en SQL para preparar datasets y habilitar reporting confiable.
  • Modelar datos para analítica (relaciones, medidas, reglas de negocio) orientado a consumo BI.
  • Mantener documentación básica de definiciones, métricas y tableros para facilitar uso y continuidad.
  • Colaborar con equipos de datos/BI para alinear fuentes, definiciones y entregables.

Requisitos y habilidades técnicas

Imprescindibles

  • Experiencia sólida desarrollando en Power BI (dashboards, modelamiento para BI, medidas y buenas prácticas).
  • SQL avanzado (consultas complejas, optimización, construcción de datasets para reporting).
  • Experiencia trabajando con stakeholders de negocio: levantamiento de requerimientos, definición de KPIs y comunicación clara.
  • Conocimientos de modelamiento para analítica (enfoque BI: hechos/dimensiones o modelos equivalentes).

Deseables

  • Spark SQL
  • Conocimientos o experiencia con Databricks (o plataforma similar de datos).
  • Experiencia previa en entornos de negocio con alta rotación de requerimientos de reporting (tipo retail o similar en dinámica).

Habilidades blandas (Soft Skills)

  • Comunicación clara y orientación a stakeholders.
  • Organización y capacidad de priorización.
  • Proactividad para proponer mejoras en tableros, definiciones y forma de presentar datos.
  • Trabajo colaborativo y enfoque en soluciones prácticas.
  • Autonomía y criterio para tomar decisiones con información parcial.

Deseables

Se valorará experiencia trabajando en equipos multidisciplinarios y capacidad para traducir requerimientos de negocio complejos en soluciones de BI efectivas. Importante nivel de inglés para interactuar con documentación técnica y posibles stakeholders internacionales.

Beneficios

En WiTi promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Computer provided WiTi provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Administrador de Base de Datos
  • SONDA
  • Santiago (Hybrid)
SQL Cybersecurity Database Administrator SQL Server

Somos SONDA, una empresa líder en transformación digital en la región. Buscamos fortalecer nuestro equipo de Base de Datos para impulsar soluciones que optimicen el rendimiento, la seguridad y la escalabilidad de nuestras plataformas. El proyecto central implica diseñar, optimizar y mantener infraestructuras de bases de datos para entornos de desarrollo y producción, asegurando alta disponibilidad, integridad de datos y eficiencia operativa. Trabajarás estrechamente con equipos de ingeniería, arquitectura y operaciones para entregar soluciones robustas que soporten la transformación digital de nuestros clientes.

Applications at getonbrd.com.

Funciones

  • Proporcionar desarrollo y/o soporte a la producción de bases de datos, incluyendo la creación de estructuras de almacenamiento y objetos primarios.
  • Diseñar y crear estructuras de datos, modificar esquemas para mejoras o rendimiento, y documentar interfaces y planes de base de datos.
  • Revisar y optimizar el rendimiento de bases de datos, incluyendo monitoreo, índices, planes de ejecución y estrategias de respaldo/restauración automatizadas.
  • Gestionar almacenamiento, planificación de capacidad y necesidades futuras de almacenamiento.
  • Crear scripts y programas relacionados con bases de datos para entornos de desarrollo y producción; investigar y evaluar soluciones técnicas.
  • Diseñar, probar y recomendar mejoras en procedimientos almacenados, triggers y vistas, optimizando código SQL y consultas complejas.
  • Gestionar seguridad de datos (roles, cifrado, autenticación, auditoría) y asegurar cumplimiento de políticas de seguridad.
  • Participar en proyectos de alta disponibilidad y recuperación ante desastres (HA/DR) mediante tecnologías como AlwaysOn, log shipping u otras.
  • Trabajar con certificaciones y buenas prácticas de Microsoft SQL Server y/o Azure Database, y mantener actualizados los conocimientos técnicos.

Descripción

En SONDA, buscamos un Administrador de Base de Datos con experiencia comprobable en SQL Server (2019 o superior) para unirse a nuestro equipo. El candidato ideal estará orientado a la optimización de rendimiento, gestión de seguridad y continuidad operativa, con capacidad para diseñar soluciones escalables y robustas. Se requieren más de 5 años de experiencia en administración, optimización y gestión de bases de datos SQL Server, así como conocimientos en replicación, clustering, particionamiento y gestión de logs. Debe tener experiencia en optimización de planes de ejecución, mantenimiento de respaldos, y en prácticas de seguridad avanzadas (TDE, Always Encrypted) y administración de roles. Certificaciones relevantes de Microsoft serán valoradas. Buscamos profesional proactivo, orientado a resultados, con habilidades de comunicación y trabajo en equipo, capaz de colaborar con equipos multidisciplinarios y en entornos ágil.

Deseables

Deseable contar con certificación Microsoft Certified SQL Server Database Administration o equivalente (Azure Database Administrator Associate, MCSE: Data Management and Analytics, MCITP: Database Administrator). Se valorará experiencia en entornos de alta disponibilidad, experiencia con SQL Server 2019 o superior, y conocimiento de herramientas de monitoreo y desempeño. Capacidades de scripting y automatización (PowerShell, T-SQL) y experiencia en migraciones y modernización de bases de datos en la nube serán un plus. Fuerte enfoque en calidad, seguridad y cumplimiento, con mentalidad de aprendizaje continuo y capacidad de adaptación a un entorno dinámico.

Beneficios

En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.

Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.

Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.

El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.

Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.

Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

Health coverage SONDA pays or copays health insurance for employees.
Computer provided SONDA provides a computer for your work.
APPLY VIA WEB
Gross salary $5000 - 5800 Full time
Data Manager
  • Artefact LatAm
  • Ciudad de México &nbsp Santiago (Hybrid)
Analytics Agile Business Intelligence Artificial Intelligence

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Data Manager es responsable del éxito de la ejecución de múltiples proyectos simultáneos. Este rol implica liderar y coordinar equipos multidisciplinarios para garantizar la entrega oportuna y de alta calidad de soluciones de datos que cumplan con los objetivos del cliente y contribuyan al crecimiento de la empresa.

Originally published on getonbrd.com.

Tus responsabilidades serán:

  • Integrar capacidades avanzadas de datos: Aprovechar nuestra amplia experiencia en Data Science, Business Intelligence e IA para ofrecer a los clientes soluciones sofisticadas basadas en datos.
  • Liderar transformaciones basadas en datos: Utilizar nuestros conocimientos en datos e inteligencia artificial para guiar a los clientes a través de estrategias transformadoras de marketing y negocios.
  • Desarrollar el Portfolio de clientes (Hunting): Desarrollar y ejecutar una estrategia comercial para ampliar la cartera de clientes, aprovechando un conocimiento profundo de datos e IA para posicionar a Artefact como líder en la transformación digital, gestionando y supervisando activamente el flujo comercial y elaborando propuestas centradas en datos.
  • Mejorar las relaciones con clientes existentes (Farming): Ampliar el alcance de los servicios de consultoría con nuestros clientes actuales.
  • Garantizar la excelencia del proyecto: Liderar equipos multidisciplinarios para llevar a cabo proyectos basados en datos de alta calidad, asumiendo la responsabilidad del éxito de los mismos.
  • Desarrollar nuestra plataforma de conocimiento global: Contribuir al desarrollo de una base de conocimientos integral que incluya las mejores prácticas en IA, marcos de BI, metodologías de datos y tecnologías de vanguardia.

Los requisitos del cargo son:

  • Domicilio en Santiago (Chile) o Ciudad de México (México).
  • Experiencia laboral mínima de 4 años en gestión de proyectos, preferiblemente en proyectos de consultoría o empresas de servicios tecnológicos/datos.
  • Conocimientos sólidos de metodologías de gestión de proyectos como PMI o Agile, así como experiencia en su aplicación práctica.
  • Familiaridad con conceptos y herramientas de analítica avanzada, estrategia digital, automatización e ingeniería de datos.
  • Excelentes habilidades de liderazgo, comunicación y negociación, con capacidad para influir en diferentes niveles de la organización y gestionar relaciones con clientes y equipos internos.
  • Orientación a resultados y capacidad demostrada para tomar decisiones informadas en entornos complejos y dinámicos.
  • Dominio avanzado del inglés, tanto oral como escrito, para la comunicación efectiva con clientes y equipos internacionales.

Sumas puntos extras si...

  • Posees certificaciones en gestión de proyectos (PMP, PRINCE2, Agile).
  • Manejas otros idiomas aparte del español y el inglés.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal y medio día libre de cumpleaños. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por desempeño de la empresa, además de bonos por trabajador referido y por cliente.
  • Almuerzos quincenales pagados con el equipo (Chile) o Tarjeta de Alimentación (México).
  • Cobertura de salud adicional (Mexico).
  • Computadora de altos specs para trabajar cómodamente.
  • Flexibilidad horaria y trabajo por objetivos.
  • Posibilidad de participar en proyectos a nivel global, con intercambios con otros países con presencia del grupo.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Ciudad de México).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)
...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Health coverage Artefact LatAm pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
SQL Business Intelligence Virtualization Amazon Web Services
BC Tecnología, una consultora de TI especializada en servicios IT y soluciones de negocio, busca un Data Engineer para un proyecto híbrido ubicado en Las Condes, Santiago. El/la profesional se integrará a un equipo de BI/Analytics para desarrollar, optimizar y mantener soluciones de datos en entornos analíticos, trabajando con clientes de alto nivel en sectores como finanzas, seguros, retail y gobierno. El proyecto implica colaborar con equipos de BI, Analytics y TI, contribuuyendo a la implementación de pipelines de datos, modelado y generación de reports y dashboards de valor estratégico.

This job offer is available on Get on Board.

Funciones del rol

  • Desarrollar y optimizar consultas y modelos en SQL Server para soportar reporting analítico.
  • Diseñar, implementar y mantener pipelines de datos, integrando fuentes en plataformas en la nube (AWS, Azure o GCP).
  • Desarrollar y mantener reportes y dashboards en MicroStrategy para usuarios de negocio.
  • Colaborar con equipos de BI, Analytics y TI para entender requerimientos y entregar soluciones eficientes.
  • Identificar mejoras de rendimiento, escalabilidad y calidad de datos; aplicar buenas prácticas de gobierno de datos.

Requisitos y perfil

  • Al menos 3 años de experiencia como Data Engineer o BI Engineer.
  • Experiencia comprobable en SQL Server y MicroStrategy.
  • Experiencia trabajando con alguna nube (AWS, Azure o GCP).
  • Capacidad para trabajar en entornos colaborativos, orientado a resultados y con buena comunicación con stakeholders.
  • Conocimiento en conceptos de modelado de datos, extracción, transformación y carga (ETL/ELT) y buenas prácticas de calidad de datos.

Skills and assets

  • Certificaciones en SQL Server, Data Platform o tecnologías de nube asociadas.
  • Con experiencia en herramientas de visualización y dashboards además de MicroStrategy.
  • Conocimientos de Python o lenguajes de scripting para transformaciones de datos.
  • Actitud proactiva, pensamiento analítico y capacidad para trabajar de forma autónoma en entornos dinámicos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Talana
  • Santiago (Hybrid)
Java Python SQL Erlang

En Talana, buscamos un Data Engineer que diseñe, implemente y optimice una arquitectura de datos escalable, segura y de alta disponibilidad para transformar datos crudos en insights confiables. El objetivo fundamental es transformar datos crudos provenientes de diversas fuentes en activos de datos listos para el análisis, asegurando la excelencia operativa y la automatización total del ciclo de vida del dato mediante prácticas de DataOps.

Apply from getonbrd.com.

Funciones y responsabilidades

  • Diseñar y desplegar pipelines ETL/ELT robustos en GCP para centralizar datos de toda la organización.
  • Gestionar Infraestructura como Código (IaC) con Terraform para reproducibilidad, trazabilidad y control de costos.
  • Optimizar BigQuery mediante particionamiento, modelos de datos y técnicas de costo-efectividad para maximizar ROI por consulta.
  • Configurar orquestación de flujos con Dataflow y garantizar la frescura de los datos para tableros de control listos para las reuniones matutinas.
  • Implementar políticas de IAM, cifrado y gobernanza para mantener un Data Lake seguro y conforme a estándares internacionales.
  • Configurar monitoreo proactivo y alertas para detección de anomalías y mejora de la confiabilidad en tiempo real.
  • Colaborar con SRE y equipos de negocio para entregar soluciones que añadan valor inmediato.

Requisitos y perfil buscado

  • Formación: Ingeniería Civil/Informática o carreras afines.
  • Experiencia: mayor a 3 años en roles de ingeniería de datos, con al menos 1 año en nivel semi senior.
  • Conocimientos técnicos: SQL y Python a nivel avanzado; experiencia con Terraform; conocimiento de GCP (preferible) o AWS. Deseables: Apache Kafka, Apache Beam, Apache Iceberg. Inglés técnico suficiente para lectura de textos técnicos.
  • Competencias: pensamiento analítico, enfoque en calidad de datos, capacidad para trabajar en entornos colaborativos y orientados a resultados.

Deseables

Experiencia en migraciones de datos a Data Lakehouse, experiencia con orquestación avanzada, y habilidades para diseñar arquitecturas de datos que soporten dashboards y métricas en tiempo real. Conocimiento práctico de seguridad de datos, gobernanza y cumplimiento de normativas.

Beneficios

  • 💸 Ajuste de renta por UF cada 3 meses, sin tope
  • 🏝️ 5 Talana Days: te regalamos 5 días libres al año
  • 🏡 Trabajo híbrido
  • 🏥 Seguro complementario de salud y dental
  • 💰 Aguinaldos fiestas patrias y Navidad
  • 💻 Te pasamos todos los implementos de trabajo
  • 😎 Dress Code 100% flexible
  • 👨🏻‍🍼 Postnatal paternal extendido

¡¡Muchas sorpresas más!!

"Todas las contrataciones están sujetas a la ley 21015. En Talana creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas"

Health coverage Talana pays or copays health insurance for employees.
Computer provided Talana provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Talana gives you paid vacations over the legal minimum.
Beverages and snacks Talana offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • TIMINING
  • Santiago (Hybrid)
Python SQL ETL API
En TIMining, nos proponemos ser el cerebro de centros de control minero, asegurando la disponibilidad y calidad de datos para nuestros productos. El/la profesional se integrará en proyectos orientados a la extracción, transformación y carga (ETL) de datos desde diversas fuentes hacia las bases de datos de TIMining. Su trabajo permitirá calibrar algoritmos y desarrollar automatizaciones internas que optimicen procesos, aportando valor tanto al cliente como al equipo interno. El objetivo es entregar soluciones de datos confiables y escalables que respalden operaciones mineras autónomas y remotas.

Send CV through Get on Board.

Principales funciones

  • Desarrollar, mantener y documentar scripts en Python y SQL (conectores) enfocados en ETL hacia las bases de datos de los productos TIMining.
  • Asistir y presentar en reuniones técnicas con clientes para solicitudes de accesos a fuentes de información y resolver dudas técnicas.
  • Calibrar algoritmos de los softwares de la empresa y proponer mejoras basadas en resultados de pruebas.
  • Desarrollar proyectos internos para automatizar tareas rutinarias y simplificar el día a día del equipo.
  • Validar resultados de pipelines ETL de forma cualitativa y cuantitativa, comparando con reportes operacionales de faenas.
  • Analizar y documentar fuentes de información por sistemas de gestión de flota (FMS), sistemas de navegación (MGS) y otras fuentes.
  • Identificar, evaluar y mitigar riesgos al diseñar pipelines ETL, considerando calidad de datos y contingencias.
  • Implementar estrategias proactivas para manejo de problemas y contingencias en entornos de datos.

Requisitos y perfil

Formación: Ingeniería en ciencia de datos, Ingeniería Civil o carrera afín, Ingeniería en computación o similar.
Experiencia: Mínimo 2 años en cargos similares y experiencia comprobable en implementación de pipelines ETL.
Habilidades técnicas: Python y SQL avanzado; experiencia en consultas a APIs; dominio de bases de datos y herramientas de Google Suite y Office.
Idiomas: Español nativo. Inglés upper-intermediate deseable.
Perfil: Capacidad para trabajar de forma autónoma y en equipo, con habilidades analíticas y de resolución de problemas. Interés en proyectos tecnológicos y conocimiento de la industria minera a cielo abierto y sus desafíos operativos es deseable. Conocimientos en arquitecturas en la nube son valorados.

Requisitos deseables

Experiencia adicional en implementación de proyectos tecnológicos, conocimiento de la industria minera y sus operaciones, y experiencia con arquitecturas cloud.

Beneficios y cuándo aplicar

Ofrecemos un entorno enfocado a innovación en la industria minera, con oportunidades de desarrollo profesional y trabajo en equipo multidisciplinario. Si cumples con el perfil, te invitamos a formar parte de TIMining y contribuir a la transformación digital de operaciones mineras.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Virtualization
BC Tecnología es una consulta de TI especializada en la gestión de portafolios, desarrollo de proyectos y outsourcing de personal para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Enfocada en clientes de servicios financieros, seguros, retail y gobierno, la empresa promueve soluciones a través de metodologías ágiles y un marco de cambio organizacional centrado en el desarrollo de productos. El Data Engineer se integrará a proyectos desafiantes que buscan optimizar flujos de datos, gobernanza y escalabilidad, apoyando a clientes con alto estándar de calidad y buscando mejoras continuas en procesos y pipelines.

© Get on Board.

Funciones principales

  • Diseñar y construir pipelines eficientes para mover y transformar datos, asegurando rendimiento y escalabilidad.
  • Garantizar consistencia y confiabilidad mediante pruebas unitarias y validaciones de calidad de datos.
  • Implementar flujos CI/CD para ambientes de desarrollo y producción, promoviendo buenas prácticas de DevOps.
  • Diseñar pipelines avanzados aplicando patrones de resiliencia, idempotencia y event-driven.
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje.
  • Colaborar con líderes técnicos y arquitectos para definir estándares, guías y mejoras de procesos.
  • Alinear soluciones técnicas con requerimientos de negocio y metas de entrega.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas del equipo.

Requisitos y experiencia

Buscamos un Data Engineer con al menos 2 años de experiencia en el diseño y construcción de pipelines de datos. Debe poseer dominio avanzado de Python, Spark y SQL, y experiencia trabajando en el ecosistema AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia con lakehouses (Delta Lake, Iceberg, Hudi) y conocimientos en CI/CD (Git) y control de versiones. Se valorará experiencia previa en entornos de retail y en proyectos de calidad y gobierno de datos, así como experiencia en desarrollo de integraciones desde/hacia APIs y uso de IaC (Terraform).
Se requieren habilidades de comunicación efectiva, trabajo en equipo y proactividad. Se valorará capacidad de aprendizaje, colaboración entre equipos y enfoque en resultados en un entorno dinámico y con clientes de alto nivel.

Requisitos deseables

Experiencia previa en retail o sectores regulados. Conocimiento en calidad y gobierno de datos. Experiencia en desarrollo de integraciones desde/hacia APIs. Conocimientos en herramientas de orquestación y monitoreo de pipelines. Familiaridad con buenas prácticas de seguridad de datos y cumplimiento normativo. Capacidad para comunicar conceptos técnicos a audiencias no técnicas y para fomentar una cultura de mejora continua.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB
Gross salary $4500 - 4800 Full time
Data Engineer
  • Coderslab.io
Python Agile SQL Scrum

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
Role Purpose

We are looking for a Data Engineer to design, develop, and support robust, secure, and scalable data storage and processing solutions. This role focuses on data quality, performance, and integration, working closely with technical and business teams to enable data-driven decision making.

Apply to this job through Get on Board.

Funciones del cargo

Key Responsibilities

  • Design, develop, test, and implement databases and data storage solutions aligned with business needs.
  • Collaborate with users and internal teams to gather requirements and translate them into effective technical solutions.
  • Act as a bridge between IT and business units.
  • Evaluate and integrate new data sources, ensuring compliance with data quality standards and ease of integration.
  • Extract, transform, and combine data from multiple sources to enhance the data warehouse.
  • Develop and maintain ETL/ELT processes using specialized tools and programming languages.
  • Write, optimize, and maintain SQL queries, stored procedures, and functions.
  • Design data models, defining structure, attributes, and data element naming standards.
  • Monitor and optimize database performance, scalability, and security.
  • Assess existing database designs to identify performance improvements, required upgrades, and integration needs.
  • Implement data management standards and best practices to ensure data consistency and governance.
  • Provide technical support during design, testing, and production deployment.
  • Maintain clear and accurate technical documentation.
  • Work independently on projects of moderate technical complexity with general supervision.
  • Participate in Agile teams, contributing to sprint planning and delivery.
  • Provide on-call support outside business hours and on weekends on a rotating basis.

Requerimientos del cargo

Required Qualifications

  • Bachelor’s degree in Computer Science, Information Systems, Database Systems, Engineering, or a related field, or equivalent experience.
  • 4–5 years of professional experience in a similar role.
  • Strong experience with:
    • SQL
    • Snowflake
    • ETL / ELT processes
    • Cloud-based data warehousing platforms
  • Experience with ETL tools (e.g., Informatica) and programming languages such as Python.
  • Solid understanding of data warehouse design and administration.
  • Experience working with Agile methodologies (Scrum).
  • Strong analytical, conceptual thinking, and problem-solving skills.
  • Ability to plan, prioritize, and execute tasks effectively.
  • Strong communication skills, able to explain technical concepts to non-technical stakeholders.
  • Excellent written and verbal communication skills.
  • Strong interpersonal, listening, and teamwork skills.
  • Self-motivated, proactive, and results-driven.
  • Strong service orientation and professional conduc

Opcionales

Preferred Qualifications

  • Certifications in Snowflake, SQL Server, or T-SQL.

Condiciones

Remote | Contractor | High English proficiency

APPLY VIA WEB
Gross salary $3500 - 5200 Full time
Senior Data Engineer – AI Data Infrastructure
  • Vequity
Python SQL JSON Cloud Computing

Vequity is building the world’s most robust, contextualized buyer intelligence network for investment banks, private equity firms, and strategic acquirers. Our platform currently houses over 1.5 million buyer profiles with approximately 100 structured and inferred data fields per profile. We leverage proprietary AI agents to continuously enrich, infer, and structure buyer intelligence at scale. As a Senior Data Engineer, you will own the architecture, quality, and scalability of our data ecosystem—from ingestion and cleaning to inference and output generation. You will partner with AI, product, and engineering teams to deliver data APIs and feeds that power our platform's decision-support capabilities. Your work will directly impact data reliability, operational efficiency, and the precision of buyer attributes used across our customers.

Apply to this job opportunity at getonbrd.com.

Key Responsibilities

Multi-Source Data Architecture

  • Work with systems handling multiple write paths: external providers, LLM hygiene agents, and customer-claimed edits
  • Define standards for data versioning, lineage, and observability across pipelines


Entity Lifecycle & Master Data Management

  • Handle entity lifecycle complexity: mergers, acquisitions, spin-offs, rebranding, and temporal relationship changes
  • Design entity resolution systems using deterministic blocking (fuzzy matching, location) combined with LLM-based evaluation for match decisions
  • Build confidence scoring models and surface low-confidence cases for human review

Machine Learning & Matching Systems

  • Work with embeddings infrastructure: vector generation, retrieval optimization, and quality measurement
  • Optimize semantic search pipelines including embedding strategies, namespace design, and reranking
  • Establish evaluation frameworks to measure model performance against human judgment

Collaboration & Team Development

  • Educate and mentor the engineering team on data best practices, patterns, and common pitfalls
  • Lead continuous improvement of the data infrastructure roadmap

Relationship & Graph Modeling

  • Design data models for complex relationships: parent/subsidiary hierarchies, PE firm → portfolio company chains
  • Evaluate and implement graph query capabilities (Apache AGE, Neo4j, or optimized Postgres patterns) for relationship traversal that semantic search cannot address

Data Quality, Testing & Operations

  • Build quality-control layers including confidence scoring, human-in-the-loop validation, and automated anomaly detection
  • Implement testing strategies including data contracts, pipeline unit tests, and integration testing
  • Build proactive monitoring, alerting, and runbooks for data health issues
  • Ensure compliance with data governance, privacy, and security standards

Description

  • 5+ years in data engineering with strong Python (Pydantic a bonus), SQL, and cloud data stacks (including GCP)
  • Experience with orchestration frameworks (Airflow, Dagster, Prefect) and/or data platforms (Databricks)
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of embedding-based retrieval
  • Excellent communication and cross-team collaboration skills

Desirable

  • Prior experience with Machine Learning algorithms / semantic search
  • Prior experience with entity resolution or master data management — you understand why matching company records is fundamentally hard
  • Familiarity with graph databases or graph query patterns (Neo4j, Apache AGE, recursive CTEs) for complex entity relationships
  • Experience with event sourcing or append-only architectures for audit trails and data replay
  • Background in investment data, market intelligence, or deal sourcing platforms
  • Familiarity with agent orchestration tools (LangChain, LlamaIndex) and data quality frameworks (dbt, Great Expectations)
  • Experience as an early/first data hire at a startup
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of prompt engineering, MCP Servers, function calling, and embedding-based retrieval

Benefits

Competitive compensation and Paid Time Off (PTO).

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Applications: getonbrd.com.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $3200 - 3500 Full time
Ingeniero/a de Datos Inglés Avanzado
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Agile SQL NoSQL
Genesys Tecnologías de Inform. SpA, una empresa con más de 30 años en el mercado latinoamericano, busca un/a Ingeniero/a de Datos con inglés avanzado para planificar, ejecutar y reportar proyectos de datos de diverso alcance. El rol implica trabajar de forma autónoma con información compleja, proponiendo soluciones sólidas a problemas de negocio. La posición forma parte de nuestro equipo de ingeniería de datos, colaborando con clientes de alto perfil y con una visión de transformación digital que integra tecnologías de nube, analítica y automatización.

Apply directly on Get on Board.

Funciones y Responsabilidades

  • Diseñar, construir y mantener pipelines de datos utilizando SQL, NoSQL (MySQL, PostgreSQL, MongoDB, Redshift, SQL Server) y herramientas de orquestación.
  • Desarrollar procesos de ETL/ELT y soluciones de Data Warehouse para ingesta y transformación de datos a escala empresarial.
  • Desarrollar y mantener código en Python para procesamiento y automatización de datos.
  • Orquestar flujos de datos con herramientas como Apache Airflow y DBT.
  • Gestión de ingesta en tiempo real, incluyendo etiquetado web y plataformas de datos en tiempo real (p. ej., Snowplow, Google Tag Manager).
  • Definir y mantener pipelines CI/CD con herramientas como Bitbucket y Jenkins.
  • Aplicar metodologías ágiles: gestión de backlog, seguimiento de proyectos e informes (idealmente con Jira).
  • Trabajar en entornos cloud (AWS) y big data, con experiencia en PySpark u otras tecnologías para ingeniería y despliegue de datos.
  • Conocimiento de herramientas complementarias (deseables): Digdag, Embulk, Presto.
  • Capacidad para comprender el negocio y aportar en analítica de marketing/Martech y/o Adtech como valor agregado.
  • Aplicación de modelos de machine learning en plataformas de datos de clientes (deseable).
  • Conocimientos de publicidad programática como plus.
  • Gestión de bloques de datos y calidad de datos, asegurando trazabilidad y gobernanza.
  • Colaboración con equipos multidisciplinarios y apoyo a stakeholders internos y externos.

Requisitos y Perfil

Buscamos un/a Ingeniero/a de Datos con experiencia sólida en desarrollo e implementación de soluciones de datos complejas. Debe demostrar capacidad para planificar, ejecutar y comunicar avances de proyectos de datos en entornos dinámicos, con especial atención a la calidad de datos, escalabilidad y rendimiento. Se valorará experiencia en proyectos de Martech/Adtech y en entornos de nube. Se requiere habilidad para trabajar de forma autónoma, resolver problemas y colaborar de manera efectiva con equipos multifuncionales.
Habilidades técnicas esenciales: dominio de SQL y NoSQL, experiencia con Data Warehouse y ETL/ELT, Python para procesamiento, herramientas de orquestación (Airflow, DBT), ingestas en tiempo real, CI/CD (Bitbucket, Jenkins), metodologías ágiles (Jira), y experiencia en AWS o plataformas similares. Se valora conocimiento en herramientas como Snowplow, Google Tag Manager, Digdag, Embulk y Presto, así como experiencia en marketing analytics y/o ML en datos de clientes.
Habilidades blandas: mentalidad de ingeniero/a, capacidad de resolución de problemas, buen colaborador/a en equipo, orientación al aprendizaje continuo y crecimiento profesional, comunicación clara y capacidad para gestionar prioridades en entornos con información parcial.

Competencias Deseables

  • Experiencia en publicidad programática y plataformas de publicidad digital.
  • Conocimientos avanzados en ML aplicado a datos de clientes y casos de uso de marketing automation.
  • Experiencia con Digdag, Embulk o Presto; familiaridad con pipelines complejos y orquestación multicampo.
  • Conocimiento de gobernanza de datos y buenas prácticas de seguridad y cumplimiento.

Beneficios y Condiciones

Ofrecemos contrato por proyecto con posibilidad de continuidad, en una empresa consolidada en Latinoamérica con más de tres décadas de experiencia. Forma parte de un equipo multidisciplinario, con comunicación directa con la matriz y operaciones en Santiago y otras ciudades, fomentando desarrollo profesional y crecimiento. Modalidad de trabajo híbrida con proyección a 100% presencial, horario habitual de lunes a jueves, con viernes reducido, y posibilidad de ajuste según proyecto. Ubicaciones en Concepción y Santiago, con oportunidades de desarrollo y aprendizaje continuo. 😊

APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales. Nuestro enfoque es crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, con un equipo multidisciplinario y una cultura de aprendizaje y crecimiento profesional. Formarás parte de una organización que prioriza la calidad, la seguridad y la gobernanza de datos mientras impulsa soluciones de alto impacto para la toma de decisiones estratégicas.

Applications are only received at getonbrd.com.

Funciones

  • Diseñar, construir y mantener pipelines de datos (ETL / Data Pipelines) robustos, escalables y eficientes para procesar grandes volúmenes de información de múltiples fuentes.
  • Gestionar la ingesta, procesamiento, transformación y almacenamiento de datos estructurados y no estructurados.
  • Implementar soluciones de ingeniería de datos en entornos cloud, con preferencia por AWS (Glue, Redshift, S3, etc.).
  • Traducir necesidades de negocio en requerimientos técnicos viables y sostenibles.
  • Colaborar con equipos multidisciplinarios (negocio, analítica, TI) para entregar soluciones de valor.
  • Aplicar buenas prácticas de desarrollo, seguridad, calidad y gob (governance) de datos; versionado de código, pruebas y documentación.
  • Participar en comunidades de datos, promover mejoras continuas y mantener la documentación actualizada.

Requisitos y habilidades

Estamos buscando un Data Engineer con al menos 3 años de experiencia en roles de Ingeniería de Datos y experiencia comprobable en ETLs y arquitecturas de datos en la nube. El candidato ideal debe haber trabajado en entornos ágiles y tener experiencia en proyectos de Retail o sectores afines (deseable).
Conocimientos técnicos requeridos:
  • Cloud Computing: AWS (Glue, Redshift, S3, entre otros).
  • Orquestación de pipelines: Apache Airflow.
  • Lenguajes de programación: Python (preferente) o Java.
  • Almacenamiento de datos: SQL, NoSQL, Data Warehouses.
  • Buenas prácticas: control de versiones, pruebas y documentación.
Competencias blandas: orientación al cliente, capacidad de trabajar en equipos multidisciplinarios, proactividad, pensamiento analítico y habilidades de comunicación para traducir requerimientos técnicos a negocio.

Deseables

Experiencia en Retail y en proyectos con gobernanza y cumplimiento de datos, experiencia con herramientas de visualización y analítica, conocimiento de seguridad de datos y cumplimiento normativo, y experiencia en migraciones o modernización de data stacks.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB
$$$ Full time
Docente de Minería de Datos
  • Duoc UC
  • Puerto Montt (In-office)
Python Data Analysis Business Intelligence Artificial Intelligence

Duoc UC Sede Puerto Montt, perteneciente a la Escuela de Informática y Telecomunicaciones, busca incorporar docentes para la asignatura de Minería de Datos. El objetivo es liderar el proceso de enseñanza y aprendizaje siguiendo el modelo educativo institucional, alineado a sus valores y marco disciplinar. El rol requiere aprovechar la formación y experiencia profesional para impactar positivamente en el aprendizaje de los estudiantes, contribuyendo al desarrollo de técnicas de análisis de datos y a la generación de insights relevantes a partir de grandes conjuntos de datos.

El/la docente trabajará en un entorno colaborativo, con equipos multidisciplinarios, y participará en procesos de desarrollo docente y actualización tecnológica para fortalecer las competencias de los estudiantes en Minería de Datos, Business Intelligence y análisis para toma de decisiones.

Find this job and more on Get on Board.

Funciones

  • Planificar, impartir y evaluar cursos y módulos relacionados con Minería de Datos, análisis de datos y herramientas de data science.
  • Diseñar actividades prácticas, proyectos y casos de negocio que conecten la teoría con la solución de problemas reales.
  • Guiar a los estudiantes en la explotación de grandes volúmenes de datos y en la generación de observaciones e insights accionables.
  • Participar en iniciativas de desarrollo docente, actualización tecnológica y mejora continua de la asignatura.
  • Dirigir, supervisar y evaluar trabajos de curso, proyectos finales y prácticas profesionales, promoviendo buenas prácticas de análisis de datos y ética.
  • Asesorar y orientar a estudiantes en su progreso académico y en el desarrollo de habilidades técnicas y blandas relevantes para la industria.

Descripción

Se requiere un/a Ingeniero/a en Informática, Ejecución Informática o afín, con al menos 2 años de experiencia en análisis y diseño de software, manejo de modelos de datos y experiencia en técnicas de Minería de Datos e Inteligencia de Negocios. Debe haber trabajado con grandes volúmenes de datos y ser capaz de documentar observaciones e indiciar insights relevantes. Disponibilidad para jornada diurna y vespertina.

Conocimientos deseables incluyen manejo de Python para análisis de datos, experiencia en machine learning y minería de datos. Se valorará formación complementaria (diplomados o cursos) en estas áreas. Disposición para revisar previamente materiales institucionales y videos requeridos como parte del proceso de incorporación.

Requisitos deseables

  • Formación: Se requiere un Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en: Análisis y diseño de software, empleando modelos de datos. Experiencia con técnicas de Minería de Datos. Experiencia en áreas de Inteligencia de Negocio. Que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Lunes: 19:01 a 21:10 Miércoles: 16:41 a 18:50/ Jueves: 11:31 a 13:40, 16:41 a 18:50 &20:31 a 22:30 Viernes: 11:31 a 13:40.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Beneficios

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

APPLY VIA WEB
$$$ Full time
Docente de Minería de Datos
  • Duoc UC
  • Santiago (In-office)
Python Data Analysis SQL Artificial Intelligence
Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia y la máxima acreditación institucional. Nos enfocamos en formar técnicos y profesionales a través de 9 escuelas y más de 70 carreras vigentes, presentes en 18 sedes regionales. Nuestro equipo docente colabora en entornos multicisciplinarios y con enfoque en valores institucionales, buscando aportar al desarrollo económico de Chile mediante una educación de calidad y actualizada.

Exclusive offer from getonbrd.com.

Funciones y responsabilidades

  • Liderar el proceso de enseñanza/aprendizaje en la asignatura de Minería de Datos, alineada al modelo educativo y al marco valórico institucional.
  • Desarrollar unidades didácticas, planificaciones y recursos pedagógicos que favorezcan el aprendizaje activo (ABP) y proyectos aplicados.
  • Evaluar y retroalimentar a los estudiantes, contextualizando contenidos al mundo laboral y simulando entornos empresariales.
  • Trabajar en colaboración con equipos multidisciplinarios, integrando herramientas de análisis de datos, inteligencia de negocio y desarrollo de software.
  • Integrar tecnologías y prácticas actuales de minería de datos, analítica y visualización para generar insights relevantes.
  • Contribuir a la mejora continua de la calidad de la enseñanza y del desempeño estudiantil.

Requisitos y perfil buscado

Requisitos del perfil:

  • Formación: Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en Análisis y diseño de software, empleando modelos de datos, aplicación de técnicas de Minería de Datos, experiencia en áreas de Inteligencia de Negocio, que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Martes: 16:01 a 17:20/ Miércoles: 16:01 a 18:50/ Jueves: 19:01 a 21:10/ Viernes: 20:31 a 22:30.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Debe poseer competencias profesionales tales como:

  • Conocimiento en estadística para minería de datos.
  • Conocimientos en lenguaje de programación Python, librerías: numpy, pandas, sckit learn.
  • Habilidad y experiencia en análisis y diseño, empleando modelos de datos.
  • Experiencia con técnicas de Minería de Datos basado en metodología CRISP-DM.
  • Experiencia en áreas de Inteligencia de Negocio.
  • Conocimiento en estadística descriptiva e inferencial para minería de datos.

Competencias deseables

Conocimiento avanzado de Python y sus ecosistemas para ciencia de datos; experiencia adicional en SQL, bases de datos y visualización (por ejemplo, Power BI o Tableau). Certificaciones o cursos en ML/IA y minería de datos, así como experiencia de enseñanza en entornos universitarios o técnicos.

Beneficios y condiciones

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

APPLY VIA WEB
Gross salary $2000 - 3400 Full time
Senior Data Engineer
  • Forest
  • Santiago (Hybrid)
Python PostgreSQL Git SQL

What is Forest?

We are Forest, London’s most sustainable shared eBike operator. We bridge the gap between affordability and sustainability, using our advertising revenue to offer all customers free cycling minutes daily.

We have just raised a Series A funding round to double our fleet size in London, continuing to invest in our digital marketing proprietary tech, and starting our international expansion plans.

If you want to join a quick-moving and fast-growing company, making a difference in the micro-mobility industry, come join us.

Please note: our company is based in the UK and has Chilean Founders.

*This job is based in Chile (candidate must be based here), and reports to the team in Chile and the UK. Spanish and English fluency is mandatory.

This job offer is on Get on Board.

About the Role

We are looking for a SeniorData Engineer with strong experience in database migrations, specifically moving large-scale datasets and pipelines from Postgres to Snowflake. You will design, build, and optimize migration workflows using Mage as our orchestration platform, while leveraging both AWS and GCP infrastructure.

This role is ideal for someone who knows how to work with complex schemas, high-volume data, and performance tuning, and who can drive a seamless migration with minimal downtime.

Migration & Pipeline Development

  • Lead the end-to-end migration of datasets, ETL jobs, and schemas from Postgres to Snowflake.
  • Design, build, and maintain data ingestion and transformation pipelines using Mage.
  • Ensure data quality, consistency, and performance across the migrated ecosystem.

Architecture & Optimization

  • Optimize query performance and warehouse usage in Snowflake (clustering, micro-partitioning, caching, etc.).
  • Work with cloud infrastructure on AWS and GCP, integrating pipelines with storage (S3/GCS), compute, IAM, networking, and secret management.
  • Create scalable, cost-efficient data models and workflows.

Tableau Integration & Support

  • Support the migration of Tableau data sources from Postgres connections to Snowflake connections.
  • Work with the Data team to validate Tableau dashboards after migration.
  • Optimize Snowflake models and queries used by Tableau to ensure performance and cost efficiency.
  • Help redesign or refactor extracts, live connections, and published data sources to align with best practices.

Collaboration & Delivery

  • Partner with Data, Product, and Engineering to understand data needs and ensure smooth transition.
  • Document migration steps, architecture decisions, and pipeline designs.
  • Troubleshoot and resolve issues related to performance, data inconsistencies, and pipeline failures.

Requirements

Technical Skills

  • 5+ years of experience in Data Engineering or similar roles.
  • Strong expertise with Postgres (schema design, query tuning, replication strategies).
  • Hands-on experience with Snowflake (Snowpipe, Tasks, Streams, Warehouses).
  • Solid experience orchestrating pipelines using Mage (or Airflow/Prefect with willingness to learn Mage).
  • Strong SQL skills and Python.
  • Experience working with AWS and GCP
  • Familiarity with CI/CD pipelines and Git-based workflows.

Optionals

  • Experience migrating large datasets or re platforming data stacks.
  • Experience implementing security and governance frameworks.
  • Strong communication and documentation habits.
  • Ability to work independently and drive projects from start to finish.
  • Problem-solver with a focus on reliability and scalability.
  • Comfortable working in a fast-paced, cloud-native, multi-cloud environment.

What we offer

  • Opportunity to design and influence the core data architecture.
  • Flexibility, learning resources, and ownership over high-impact projects.
  • Play a key role in the transformation of sustainable urban mobility in our cities.
  • Competitive compensation plan with plenty of development opportunities.
  • Scale with a rapidly growing organization, working with a team of fun, experienced and motivated individuals, with highly growth opportunities.
  • Private Health Insurance plan.
  • 20 days holiday plus your birthday.
  • Work for an international company that has a link between Chile and the UK.
  • Bilingual mode of communication at work.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Forest pays or copays life insurance for employees.
Meals provided Forest provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Forest pays or copays health insurance for employees.
Dental insurance Forest pays or copays dental insurance for employees.
Computer provided Forest provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Forest gives you paid vacations over the legal minimum.
Beverages and snacks Forest offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer (AWS Redshift / Zero‑ETL / Consumption Layer)
  • WiTi
Analytics SQL Business Intelligence Virtualization
Nos dedicamos al desarrollo de software y soluciones tecnológicas. Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles. Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.

Apply directly through getonbrd.com.

Funciones del cargo

Buscamos un Data Engineer con experiencia sólida construyendo y optimizando capas de consumo analíticas en entornos cloud, idealmente sobre Amazon Redshift Serverless.
Tu misión será diseñar, modelar y mantener una capa de consumo en Redshift a partir de datos replicados vía Zero‑ETL desde Aurora, habilitando datasets confiables y performantes para reporting, métricas multi‑dominio y casos de uso de analítica/IA.

Responsabilidades principales:

  • Diseñar modelos analíticos (facts, dims y marts) orientados a autoservicio de datos y consumo por herramientas BI/IA.
  • Implementar y optimizar consultas SQL avanzadas sobre Redshift (joins grandes, agregaciones, window functions) garantizando buen performance y costo.
  • Analizar y tunear el rendimiento de Redshift (EXPLAIN, DS_BCAST/DS_DIST, scans, spill, skew) proponiendo mejoras continuas en diseño físico.
  • Definir y ajustar DISTSTYLE/DISTKEY, SORTKEY, CTAS/materializaciones y estadísticas para maximizar la performance de la capa de consumo.
  • Construir pipelines livianos en AWS (Redshift Data API, Lambda, EventBridge u otros servicios equivalentes) para refrescar la capa de consumo con mínima latencia y alta confiabilidad.
  • Colaborar con analistas, producto y stakeholders de negocio para entender métricas clave y reflejarlas correctamente en los datasets.

Requerimientos del cargo

  • Experiencia comprobable como Data Engineer (ideal 3+ años) trabajando con warehouses en cloud.
  • Experiencia práctica con Amazon Redshift (idealmente Redshift Serverless) y SQL avanzado.
  • Conocimientos fuertes de performance tuning en Redshift: lectura de EXPLAIN, comprensión de broadcast vs redistribution (DS_BCAST/DS_DIST), manejo de scans, spill y skew.
  • Diseño físico y optimización de tablas en Redshift: DISTSTYLE/DISTKEY, SORTKEY, uso de CTAS/materializaciones y manejo de estadísticas.
  • Experiencia en modelado analítico (esquemas de hechos y dimensiones, data marts, agregados) orientado a consumo.
  • Experiencia construyendo pipelines livianos en AWS para refrescar datos (por ejemplo Redshift Data API, Lambda, EventBridge o servicios equivalentes).

Nice‑to‑have (deseables):

  • Experiencia usando dbt para modelado y orquestación ligera sobre el warehouse.
  • Prácticas de data quality (tests, checks, monitoreo de calidad de datos).
  • Experiencia exponiendo la capa de consumo a través de herramientas BI como QuickSight u otras.
  • Haber habilitado semantic layers o datasets pensados para IA/LLM o analítica avanzada.

Soft Skills

Resolución de problemas: Capacidad analítica para identificar cuellos de botella de performance y proponer soluciones técnicas simples y efectivas.

  • Comunicación: Habilidad para explicar decisiones de diseño de datos y métricas a perfiles técnicos y de negocio.
  • Colaboración: Experiencia trabajando con equipos ágiles y en coordinación con analistas, científicos de datos y desarrolladores.
  • Orden y detalle: Prolijidad en documentación, definición de contratos de datos y buenas prácticas en modelado.

Condiciones

En WiTI, nuestro centro son las personas y la agilidad, nos gusta compartir conocimientos entre todos y distintas áreas, cómo compartir tiempo extra para conversar sobre videojuegos, películas, seríes y cualquier topic interesante para nosotros.

  • Plan de carrera
  • Certificaciones
  • Cursos de idiomas
  • Aguinaldos

Fully remote You can work from anywhere in the world.
Internal talks WiTi offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Conference stipend WiTi covers tickets and/or some expenses for conferences related to the position.
APPLY VIA WEB
Gross salary $3600 - 4500 Full time
Senior Data Scientist (Santiago)
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Machine Learning
Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Apply exclusively at getonbrd.com.

Lo que harás

  • Diseñar e implementar estrategias para optimizar el motor de verificación de antecedentes a gran escala, gestionando costo, tiempo de respuesta y precisión.
  • Desarrollar modelos de detección de anomalías y antifraude para garantizar la integridad de la plataforma antes de generar informes.
  • Definir la hoja de ruta técnica del producto principal, traduciendo objetivos empresariales en problemas matemáticos y soluciones en código.
  • Aplicar GenAI y LLMs para acelerar la exploración de datos, prototipar modelos y automatizar flujos de trabajo repetitivos.
  • Colaborar con equipos de ingeniería y producto en EE. UU. para alinear requisitos y entregar mejoras a escala global.
  • Participar en discusiones técnicas con partes interesadas de nivel VP, comunicando conceptos complejos de manera clara.

Qué debes traer

  • Inglés fluido (stakeholders en USA y todas las entrevistas técnicas serán en inglés)
  • Más de 5 años de experiencia en Data Science, Data Analytics o ML, preferentemente en entornos B2B SaaS o de rápido crecimiento.
  • Formación en Informática, Ingeniería o Ciencia de Datos; equivalente bienvenido.
  • Dominio sólido de Python y SQL; conocimiento de prácticas modernas de MLOps y CI/CD de datos.
  • Capacidad para comunicar ideas técnicas complejas en inglés y español.
  • Experiencia práctica con GenAI para exploración de datos y automatización de flujos de trabajo. Independencia, orientación a resultados, y habilidad para trabajar en entornos colaborativos y dinámicos.

Desirable

  • Valorable experiencia trabajando en centros de innovación, aceleración de proyectos a través de técnicas de optimización, y exposición a sistemas de verificación de identidad a gran escala.
  • Se apreciará formación adicional en ciencia de datos aplicada a ambientes regulados y cumplimiento.
  • Fuerte capacidad analítica, curiosidad técnica, y enfoque proactivo para resolver problemas complejos.

Beneficios

  • Trabajo híbrido en Santiago: 3 días en oficina (metro Tobalaba) y 2 días desde casa.
  • Contrato indefinido y salario competitivo en CLP.
  • Seguro médico, de vida y dental para ti y tu familia.
  • Bonificación anual de 3,000 USD para formación y desarrollo.
  • RSU
  • 5 días adicionales de vacaciones.
  • Beneficios de oficina, snacks y bebidas, y un entorno de crecimiento internacional.

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $4000 - 4500 Full time
Data Engineering Lead
  • Grupo Mariposa
Python Analytics SQL Erlang
Sobre la empresa
Global Mobility Apex, S.A. es una corporación multinacional de bebidas y alimentos, fundada en 1885, con operaciones en más de 14 países y más de 15,000 colaboradores. Contamos con el portafolio de bebidas más grande de la región y alianzas estratégicas con PepsiCo y AB InBev. Nos organizamos en 4 unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Buscamos talentos que se sumen a nuestra estrategia de expansión y crecimiento, compartiendo nuestros anhelos y aportando su visión para lograr grandes resultados.
Buscamos el "Data Engineering Lead" que lidere la plataforma de datos corporativa en un entorno multi-cloud, con foco en Azure y soporte en Google Cloud Platform (GCP). Este rol define, lidera y escala la estrategia de ingeniería de datos para la región, garantizando una plataforma robusta, gobernada y escalable para analítica avanzada, BI y productos digitales en múltiples países.

Apply directly on the original site at Get on Board.

Objetivo del rol

Buscamos incorporar un Data Engineering Lead que lidere la plataforma de datos corporativa en un entorno multi-cloud, con foco principal en Azure y soportecomplementario en Google Cloud Platform (GCP).

Será responsable de definir, liderar y escalar la estrategia de ingeniería de datos para la región, garantizando una plataforma robusta, gobernada y escalable, capaz de soportar analítica avanzada, BI y productos digitales en múltiples países. Este rol combina liderazgo técnico, arquitectura de datos multi-cloud, gobierno, y gestión de equipos, actuando como habilitador clave de la estrategia data-driven de la organización.

Responsabilidades clave

1. Arquitectura de Datos Multi-Cloud (Azure 60% / GCP 40%)

  • Definir y evolucionar una arquitectura Lakehouse corporativa (Bronze / Silver / Gold) en entornos Azure y GCP.
  • Liderar el diseño e implementación de soluciones escalables utilizando principalmente Azure, incluyendo:
    • Azure Data Lake Storage Gen2 (Data Lake)
    • Azure Databricks (Spark / Lakehouse)
    • Azure Data Factory (ingesta y orquestación)
    • Azure Synapse / Azure SQL / Delta Lake (cuando aplique)
  • Integrar y operar soluciones complementarias en GCP, tales como:o Cloud Storage
    • BigQuery
    • Dataflow / Apache Beam
    • Dataproc (Spark administrado)
    • Vertex AI
  • Definir estándares de naming, particionamiento, versionado, performance y seguridad comunes entre nubes.

2. Gobierno, Calidad y Seguridad de Datos

  • Garantizar datos confiables, trazables y gobernados en toda la plataforma.
  • Diseñar e implementar prácticas de:
    • Data Quality (DQ)
    • Data Lineage
    • Data Catalog / Business Glossary
  • Implementar controles de seguridad y gobierno mediante:
    • Azure Purview / Microsoft Fabric governance (cuando aplique)
    • Unity Catalog (Databricks)
    • GCP Dataplex / Data Catalog
  • Asegurar cumplimiento de políticas de acceso, privacidad y auditoría.

3. Orquestación, Automatización y CI/CD

  • Liderar la orquestación de pipelines ETL/ELT usando:
    • Azure Data Factory
    • Azure Databricks Jobs
    • Cloud Composer (Airflow)
  • Garantizar pipelines:
    • Idempotentes
    • Reproducibles
    • Versionados
  • Implementar CI/CD para infraestructura y data pipelines usando:
    • Terraform / IaC
    • GitHub Actions / Azure DevOps
  • Supervisar despliegues seguros en ambientes dev / qa / prod.

4. Liderazgo de Equipos y Stakeholders

  • Liderar y mentorizar equipos de Data Engineers en distintos países.
  • Definir estándares de ingeniería y promover buenas prácticas de desarrollo (Python, SQL, Spark).
  • Actuar como punto de enlace entre:
    • Negocioo Analytics & Data Science
    • BI
    • Cloud & Security
    • Proveedores tecnológicos
  • Traducir necesidades de negocio en soluciones técnicas escalables y sostenibles.

5. Optimización de Costos y Performance

  • Optimizar costos y performance en:
    • Azure Databricks y ADLS
    • BigQuery y Dataflow
  • Diseñar estrategias de:
    • Particionado y clustering
    • Gestión de workloads
    • Control de consumo y costos
  • Promover mejora continua de la arquitectura y tooling.

Requisitos

Formación

  • Licenciatura o Maestría en Ingeniería, Sistemas, Computación, Data Science o carreras afines.

Experiencia

  • +7 años de experiencia en Ingeniería de Datos.
  • Experiencia liderando plataformas de datos en Azure (imprescindible).
  • Experiencia comprobada en GCP (deseablem y plus).
  • Dominio de arquitecturas Lakehouse / Medallion (Bronze / Silver / Gold).
  • Experiencia sólida en:
    • SQL avanzado
    • Python
    • Spark / Databricks
  • Experiencia liderando equipos técnicos.

Deseable

  • Experiencia en CPG / Retail / Consumo Masivo.
  • Conocimiento de Data Governance y Data Mesh (conceptual).
  • Experiencia en entornos multi-país y multi-negocio.

Retos del puesto

  • Escalar una plataforma de datos multi-cloud a nivel regional.
  • Estandarizar arquitectura y prácticas entre Azure y GCP.
  • Garantizar calidad, seguridad y gobierno en entornos complejos.
  • Balancear velocidad, performance y costos.
  • Habilitar datos confiables para analítica avanzada y productos digitales.

Health coverage Grupo Mariposa pays or copays health insurance for employees.
Computer provided Grupo Mariposa provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Grupo Mariposa gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Data Analyst
  • Vemo México
  • Ciudad de México (In-office)
Python Analytics Data Analysis Excel

En VEMO México, nos movemos en el ámbito de la electromovilidad para acelerar la adopción de soluciones de movilidad limpia en México y América Latina. Nuestro equipo trabaja en software y plataformas tecnológicas de alto impacto dentro de un ecosistema que integra datos, energía limpia, infraestructura de carga y servicios digitales. Buscamos talento joven para formar parte de un área de ingeniería que aprende y crece a través de proyectos reales, con foco en impacto social y ambiental. Este rol te permitirá participar en la construcción de componentes de software, colaborar con perfiles más senior y entender el ciclo completo de desarrollo dentro de una empresa cleantech en expansión, con metodología ágil y un ambiente de aprendizaje continuo.

This job is original from Get on Board.

Funciones del cargo

El VCN Data Analyst será responsable de centralizar, analizar y traducir los datos comerciales, operativos y de portafolio de la red de recarga VCN en inteligencia accionable que impulse la toma de decisiones estratégicas, la eficiencia operativa y la escalabilidad de capacidades internas. Este rol trabaja de forma transversal con líderes de área y en estrecha colaboración con los equipos de Business Intelligence, Business Development y VCN Operations para diseñar dashboards, reportes y herramientas que fortalezcan el seguimiento de indicadores clave de la red.

Responsabilidades principales

  • Recolectar y organizar datos provenientes de CRM, sistemas de monitoreo de cargadores, O&M y operaciones comerciales
  • Validar la calidad, consistencia y completitud de la información
  • Estandarizar reportes internos y bases de datos para la toma de decisiones
  • Monitorear y analizar KPIs críticos por hub, región y tipo de producto
  • Detectar outliers, desviaciones o problemas estructurales en la red
  • Evaluar performance de hubs y del portafolio de activos, generando recomendaciones para mejorar rentabilidad y eficiencia
  • Co-diseñar dashboards junto con el equipo de BI para monitorear performance en tiempo real
  • Automatizar reportes y crear herramientas que faciliten la gestión de operaciones
  • Preparar reportes ejecutivos y presentaciones para el senior management
  • Desarrollar narrativas de datos que traduzcan métricas complejas en insights estratégicos
  • Proponer iniciativas basadas en datos (zonas de oportunidad, pricing, eficiencia operativa, riesgos)
  • Acompañar a líderes de área en la implementación de soluciones
  • Identificar patrones de alto impacto y contribuir al diseño de herramientas internas de performance tracking

Requerimientos del cargo

  • Licenciatura en Ingeniería, Actuaría, Economía, Matemáticas Aplicadas, Sistemas Computacionales o afines
  • 3+ años en análisis de datos, business analytics o roles similares, idealmente en industrias de tecnología, movilidad, energía o infraestructura
  • Experiencia en forecasting, modelos de predicción y optimización de operaciones
  • Historial comprobable en diseño de dashboards y automatización de reportes
  • Experiencia trabajando con stakeholders de alto nivel y generando recomendaciones estratégicas

Habilidades técnicas (Hard Skills)

  • Dominio avanzado de Excel y PowerPoint
  • Manejo de herramientas de visualización: Power BI, Tableau
  • Conocimientos en SQL, Python o R para análisis y modelado de datos

Habilidades interpersonales (Soft Skills)

  • Capacidad analítica y pensamiento estratégico
  • Estructura y atención al detalle
  • Autonomía y ownership mentality
  • Comunicación efectiva y data storytelling
  • Adaptabilidad y colaboración transversal

Opcionales

  • Maestría o posgrado en Data Science, Business Analytics o Business Intelligence
  • Conocimientos en modelos de pricing y customer segmentation
  • Experiencia previa en empresas de alto crecimiento o scale-ups

Condiciones

A convenir según perfil y experiencia. En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Disponibilidad de horarios flexibles y oportunidades de desarrollo profesional en tecnología y negocio.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Data Analysis Excel

BC Tecnología es una consultora de TI que diseña soluciones para clientes en sectores como finanzas, seguros, retail y gobierno. En este rol, te integrarás a un equipo de Risk Operations enfocado en generar y mantener un ecosistema de procesos de monitoreo y alertas para detectar conductas fraudulentas o riesgosas de Sellers activos en el Marketplace. Trabajarás en proyectos estratégicos de alto impacto, con coordinación de requerimientos a nivel local e internacional, buscando mitigar riesgos operacionales y reputacionales mediante soluciones basadas en datos y automatización de procesos.

Colaborarás con áreas de negocio para traducir necesidades en soluciones analíticas; levantarás, documentarás y mantendrás procesos automáticos; y contribuirás a la mejora continua de procesos operacionales a través de insights basados en datos y reportes periódicos. Tendrás la oportunidad de participar en un entorno colaborativo, con cultura de aprendizaje y enfoque en crecimiento profesional.

Apply to this job from Get on Board.

Funciones y responsabilidades clave

  • Generar y mantener un ecosistema de procesos de monitoreo y alertas para detección de incumplimientos y comportamientos riesgosos.
  • Analizar grandes volúmenes de datos para diseñar flujos automáticos de alertas, reportes y monitoreos orientados a la detección de riesgos.
  • Elaborar reportes periódicos y análisis ad-hoc que permitan identificar, priorizar y accionar casos de riesgo.
  • Generar insights y recomendaciones accionables para la mejora continua de procesos operacionales.
  • Levantar, documentar y mantener los procesos automáticos implementados.
  • Gestionar proyectos de analítica de principio a fin, coordinando requerimientos con stakeholders locales e internacionales.
  • Comprender cómo interactúan las distintas áreas del negocio dentro del ecosistema digital y traducir necesidades en soluciones basadas en datos.
  • Utilizar estructuras de almacenamiento y herramientas de explotación de datos para apoyar la toma de decisiones.

Descripción y requisitos del rol

Buscamos un/una Analista de Datos con 2 a 4 años de experiencia en roles similares (Analítica, BI, Operaciones, Marketing o afín). Se valorará experiencia en Ecommerce. Requerimos dominio avanzado de SQL y nivel intermedio–avanzado de inglés. Se espera manejo avanzado de al menos una herramienta de visualización/análisis de datos (Excel, Tableau, Power BI o Data Studio). Experiencia en al menos un lenguaje de programación para análisis de datos (preferible Python; R u otro también válido). Conocimientos en plataformas Cloud, idealmente Google Cloud Platform. Conocimientos en Prompt Engineering serán valorados. Se ofrece modalidad de trabajo híbrida y contrato a plazo fijo con proyección a indefinido según desempeño. Participarás en proyectos estratégicos y en un entorno orientado a la toma de decisiones basada en datos.

Requisitos deseables

Experiencia adicional en herramientas de analítica avanzada, experiencia en entornos fintech o marketplaces, capacidad de trabajar en entornos ágiles, habilidades de comunicación para colaborar con stakeholders diversos y experiencia en modelado de datos y gobernanza de datos.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB
$$$ Full time
Market Data Manager
  • Niuro
Excel Audit Data governance Integration Testing
Niuro is advancing global talent acquisition by connecting projects with elite tech teams and delivering autonomous, high-performance groups to U.S. companies. Our Market Data team plays a pivotal role in ensuring compliant, accurate usage and billing of exchange market data. The project focuses on building scalable processes for licensing, entitlements, reporting, and data governance across trading platforms, brokerages, and prop firms. You will collaborate with cross-functional teams to uphold licensing rules, optimize data usage, and drive audit readiness, enabling secure, efficient data operations in a fully remote environment.

Apply exclusively at getonbrd.com.

Key Responsibilities

  • Oversee exchange market data compliance, licensing rules, and Vendor-of-Record (VOR) requirements.
  • Manage user classifications (Pro vs Non-Pro, display vs non-display, evaluator usage) and audit declarations for discrepancies.
  • Coordinate access controls, entitlement updates, and enforce compliance with Engineering.
  • Prepare and submit monthly usage, billing, and compliance reports; reconcile platform usage with partner records to ensure accurate invoicing.
  • Support audits and maintain audit-ready documentation; act as a compliance and data operations contact for partners and stakeholders.
  • Collaborate with cross-functional teams including Legal, Finance, Security, and Engineering to mitigate compliance risks and improve data governance.
  • Continuously improve processes for data licensing, usage tracking, and reporting workflows using available tools.

Role Overview & Requirements

We are seeking a seasoned Market Data Manager to lead our market data operations, ensuring accurate reporting, compliant licensing, and robust VOR adherence across all data use cases. The ideal candidate will have hands-on experience with market data licensing (display, non-display, evaluator rules), strong analytic and documentation skills, and the ability to work effectively with cross-functional teams in a fully remote setting aligned to U.S. Eastern Time.
Required skills include advanced proficiency in Excel or Google Sheets for reporting and reconciliation, experience with billing, usage logs, or data reporting workflows, and a keen eye for detail. Candidates with exposure to trading platforms, prop firms, or brokerages, as well as familiarity with entitlement systems, dashboards, or APIs, will stand out. Excellent written and verbal communication is essential to maintain audit-ready processes and clear stakeholder engagement.
We value proactive problem-solvers who can operate with a high level of ownership, adaptability, and integrity in a confidential environment. A background in compliance, audit, or data governance is advantageous.

Desirable Skills & Experience

Experience with trading platforms, brokerages, or prop trading environments.
Background in compliance, audit, or data governance roles.
Familiarity with entitlement systems, dashboards, or APIs to automate data access controls and reporting.

Benefits & Work Environment

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Ingeniero Gobierno de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Data Science Cloud Data governance
Genesys Tecnologías de Información SpA es una empresa regional con más de 30 años de experiencia en desarrollo de software y servicios TI. Nos especializamos en soluciones de privacidad, gestión de datos personales y gobernanza de datos dentro de entornos corporativos regulados. El/la candidato/a se integrará a un equipo enfocado en diseñar, implementar y operar soluciones de privacidad corporativas, asegurando su correcta integración con el ecosistema tecnológico, cumpliendo requerimientos regulatorios y de negocio, y colaborando con proveedores y áreas técnicas para garantizar la protección y gestión adecuada de datos personales.

Send CV through getonbrd.com.

Funciones principales

  • Gestión de datos personales y plataformas de privacidad, asegurando cumplimiento regulatorio y operación estable.
  • Configuración y administración de CAMP y matrices de riesgo (regulado y no regulado).
  • Implementación de búsqueda y detección de datos personales (InfoTypes) y mapeo de flujos de datos.
  • Integración de flujos para atención de derechos ARSOP (Acceso, Rectificación, Supresión, Portabilidad).
  • Gestión de puntos de captura de consentimiento (opt-in / opt-out) y modelado de datos técnicos.
  • Uso de SQL, Python y Google Cloud Platform (GCP); colaborar con equipos de datos y seguridad.
  • Conocimientos fundacionales en Gobierno de Datos y buenas prácticas de privacidad.

Requisitos y perfil

Buscamos un/a profesional proactivo/a y orientado/a a resultados, con experiencia en entornos corporativos y regulados. Se requiere capacidad para diseñar, configurar y operar soluciones de privacidad, así como para coordinar con proveedores y equipos internos. El/la candidato/a ideal posee experiencia en gestión de datos personales, herramientas de privacidad y gobernanza, y manejo técnico de bases de datos y plataformas en la nube. Se valorarán conocimientos en CDP Consent, gestión de incidentes en plataformas de privacidad y exposición previa a Warners. Se ofrece un contrato por proyecto con posibilidad de indefinido según desempeño, modalidad híbrida y horarios estandarizados.

Requisitos deseables

Experiencia con integración de plataformas de gestión de consentimientos (CDP Consent), manejo de incidentes en plataformas de privacidad y coordinación técnica con proveedores. Conocimiento inicial o exposición previa a Warners y experiencia en entornos corporativos regulados. Se valora autonomía, habilidades de comunicación, y capacidad para trabajar en equipos multidisciplinarios en un entorno dinámico.

Beneficios

Ofrecemos un contrato por proyecto con estabilidad y condiciones claras en un entorno laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante. Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación. Contamos con un equipo multidisciplinario y comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración y el apoyo técnico. Jornada híbrida (horario de lunes a jueves 09:00-18:00 y viernes 09:00-16:00), con posibilidad de extensión según necesidades del negocio. Esperamos que te unas a nuestro equipo para crecer juntos! 😊

APPLY VIA WEB
Gross salary $2300 - 2600 Full time
Business Analyst Digital Strategy
  • Grupo Mariposa
Product Owner Business Analyst Digital Strategy

Global Mobility Apex, S.A. es una corporación multinacional de bebidas y alimentos fundada en 1885, con presencia en más de 14 países y un equipo de más de 15,000 colaboradores. Nuestro portafolio de bebidas es el más extenso de la región, y contamos con socios estratégicos como PepsiCo y AB InBev. En el último año, hemos experimentado una expansión global que nos ha permitido estructurarnos en 4 unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Con una estrategia dinámica de crecimiento, buscamos talentos que se unan a nuestras ambiciones de llevar alegría y desarrollo más lejos.

Apply to this job without intermediaries on Get on Board.

Funciones:

  • Definir una estrategia clara del producto digital alineada con la visión general y las necesidades del negocio para impulsar la transformación digital.
  • Desarrollar una hoja de ruta del producto basada en la visión general del negocio.
  • Establecer la estrategia de negocio para la ejecución de los equipos técnicos.
  • Crear historias de usuario y criterios de aceptación para el desarrollo del producto.
  • Utilizar las reglas de negocio como recurso clave para definir las funciones esenciales del producto.
  • Alinear los requerimientos de los stakeholders para asegurar una visión compartida del producto con el negocio.
  • Priorizar los entregables del producto digital según el valor incremental que proporcionan para garantizar un valor constante al usuario.
  • Definir indicadores de negocio que midan el éxito de los productos.

Experiencia:

Buscamos profesionales con experiencia en corporaciones multinacionales, idealmente en el sector de consumo masivo (CPG). Es esencial contar con experiencia previa como Líder de Producto, Coordinador de Proyectos o Product Owner, lo que garantiza que estés preparado para asumir los retos de este rol.

Habilidades deseables:

Sería ideal que el candidato posea habilidades en gestión ágil de proyectos, habilidades de comunicación efectiva y la habilidad de trabajar en un entorno colaborativo. Además, el conocimiento de herramientas de gestión de productos y métricas de rendimiento será altamente valorado.

Únete a nosotros:

Al formar parte de Global Mobility Apex, tendrás la oportunidad de trabajar en un entorno diverso y apasionante, donde tus ideas pueden marcar la diferencia. Te ofrecemos un paquete de beneficios competitivo, un ambiente inclusivo y oportunidades de crecimiento profesional. ¡Juntos podemos lograr nuestros sueños!

APPLY VIA WEB
$$$ Full time
Ingeniero Senior de Data & Risk Ops
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis Excel Marketing

En BC Tecnología, el rol se enfoca en diseñar y operar un ecosistema de alertas y monitoreo para detectar y mitigar de forma proactiva riesgos y fraudes en el Marketplace. Trabaja con datos multi-fuente para generar reportes, dashboards e insights accionables, apoyando la toma de decisiones del equipo de Risk Ops.
Incluye gestión end-to-end de proyectos, colaboración con equipos locales e internacionales, comunicación con stakeholders y documentación de procesos automatizados, con foco en analítica, automatización y gobernanza de datos para la mejora continua.

Find this job on getonbrd.com.

Principales funciones

  • Analizar datos y diseñar flujos automáticos que guíen la toma de decisiones entre áreas dentro de la empresa.
  • Gestionar proyectos de datos de principio a fin: levantamiento de requerimientos, desarrollo, validación y entrega de resultados.
  • Elaborar reportes y alertas que permitan monitorear casos de incumplimiento en el Marketplace y mitigar comportamientos de riesgo.
  • Generar insights y recomendaciones basadas en análisis ad-hoc para mejoras en procesos y herramientas.
  • Trabajar con distintas áreas para entender su interacción en el ecosistema digital y convertir insights en acciones de valor.
  • Conocer estructuras de almacenamiento de datos y herramientas disponibles para explotar la información y soportar la toma de decisiones.

Perfil y experiencia

Perfil profesional requerido:
  • Título de Ingeniería Civil Industrial, Ingeniería en Computación o Informática, o carrera afín.
  • 2-4 años de experiencia en roles similares (análisis en Operaciones, BI, Marketing, etc.).
  • Usuario avanzado en SQL (excluyente).
  • Inglés intermedio–avanzado (excluyente).
  • Usuario avanzado en al menos una herramienta de análisis/visualización: Excel, Tableau, Power BI, Data Studio (excluyente).
  • Experiencia en al menos un lenguaje para análisis de datos: Python (preferentemente), R, Julia, etc. (excluyente).
  • Conocimientos de plataformas Cloud, preferentemente Google Cloud Platform (no excluyente).
  • Conocimientos avanzados de Prompt Engineering (no excluyente).

Deseables

Se valorará experiencia en Ecommerce, capacidad para trabajar en entornos dinámicos de alto volumen de datos y habilidades de comunicación para interactuar con múltiples stakeholders a nivel internacional.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB
Gross salary $2500 - 3500 Full time
Ingeniero de Datos
  • Coderslab.io
Python SQL Web server English
Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
En esta ocasion estamos buscando incorporar un/a Ingeniero/a de Datos con experiencia en diseño, desarrollo y mantenimiento de pipelines de datos, capaz de trabajar con herramientas modernas del ecosistema analítico y de integración. El rol tendrá foco en la construcción de flujos de datos robustos, escalables y mantenibles, apoyando procesos de analítica, reporting y migraciones de datos

Send CV through getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener pipelines de datos utilizando Python, dbt y Airflow.
  • Implementar procesos de transformación y modelado de datos analíticos.
  • Orquestar flujos de datos asegurando confiabilidad y trazabilidad.
  • Colaborar en iniciativas de migración e integración de datos.
  • Asegurar calidad, consistencia y disponibilidad de la información.
  • Documentar procesos y buenas prácticas técnicas.

Requerimientos del cargo

  • Python para desarrollo de pipelines y lógica de transformación.
  • dbt para modelado, transformación y versionamiento de datos analíticos.
  • Apache Airflow para orquestación y scheduling de procesos de datos.
  • SQL avanzado para consultas, transformaciones y validaciones.
  • Inglés nivel B2 (capacidad para comunicación técnica).

Opcionales

  • Experiencia en migraciones de datos entre sistemas.
  • Experiencia en integraciones de datos desde múltiples fuentes.
  • Buen entendimiento de arquitecturas de datos modernas (ELT / Analytics Engineering).
  • Experiencia en entornos productivos y manejo responsable de cambios.

APPLY VIA WEB
$$$ Full time
Senior Data Scientist (Sector Bancario)
  • Devsu
  • Quito (Hybrid)
Analytics Big Data Continuous Deployment Artificial Intelligence

Con más de 10 años impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y América Latina, en Devsu hemos desarrollado soluciones de alto impacto en industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de aprender constantemente y participar en proyectos desafiantes y de alto impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en distintos productos y soluciones de software.

Formarás parte de un entorno multicultural, con una estructura organizacional plana, donde el trabajo en equipo, el aprendizaje continuo y la flexibilidad son pilares fundamentales.

Actualmente, estamos en la búsqueda de un Senior Data Scientist (Sector Bancario) experimentado para sumarse a nuestro equipo de forma híbrida en Quito.

Apply directly from Get on Board.

Funciones del cargo

  • Diseñar e identificar técnicas analíticas avanzadas y sets de variables óptimos para resolver problemas complejos de negocio, evitando procesamientos innecesarios de datos.
  • Desarrollar, probar y optimizar código de modelos analíticos garantizando su correcto funcionamiento, desempeño y calidad.
  • Construir y validar modelos predictivos y prescriptivos para apoyar decisiones estratégicas y operativas del Banco.
  • Analizar, explicar e interpretar relaciones entre variables, traduciendo hallazgos técnicos en insights accionables para el negocio.
  • Preparar y asegurar la escalabilidad, repetitividad y robustez de las soluciones analíticas desarrolladas.
  • Liderar el mantenimiento de modelos en producción (monitoreo, performance, recalibración y actualización).
  • Guiar y mentorizar a científicos de datos del equipo, asegurando la calidad técnica de los entregables.
  • Co-definir junto al líder del equipo el roadmap de modelos y actividades analíticas, alineado al backlog del CoE y a las necesidades del negocio.
  • Co-liderar el proceso de despliegue de modelos en ambientes productivos, en coordinación con Arquitectura de Datos y equipos tecnológicos.
  • Velar por el cumplimiento de estándares, buenas prácticas, políticas internas y gobierno de datos

Requerimientos del cargo

  • Mínimo 3 a 5 años de experiencia en modelación analítica (predictiva y/o prescriptiva).
  • Experiencia en manejo y análisis de grandes volúmenes de datos (Big Data).
  • Dominio de modelos estadísticos y econométricos, incluyendo Machine Learning y nociones de Reinforcement Learning.
  • Sólido entendimiento de matemáticas aplicadas, inteligencia artificial y operaciones matriciales.
  • Experiencia en desarrollo integral de soluciones analíticas (extracción, modelamiento, despliegue y reporting).
  • Conocimiento medio de prácticas de CI/CD y calidad de datos.
  • Experiencia liderando o coordinando equipos analíticos (deseable).
  • Experiencia previa en industrias intensivas en datos (banca, servicios financieros, telco, retail – deseable)

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Live Events Data Analyst (Latam)
  • JegyTix
Data Analysis Excel E-commerce Google Sheets

LOCATION: Remote - Latin America (LATAM) Only

IMPORTANT NOTE: This is a commercial decision-making role for a spreadsheet-heavy analyst. We have the data and the spreadsheets ready for you. We are looking for a “Human Algorithm” to interpret that data and take action on our investments.

Overview

We are a specialized secondary market ticketing company dedicated to data-driven inventory acquisition and long-term partnership development with teams and venues.

We are looking for a data-driven professional to lead our inventory acquisition strategy. The role consists in identifying market trends, analyzing historical demand, consumer behavior and scaling our footprint across the live events space.

This offer is exclusive to getonbrd.com.

Key Responsibilities

  • Market Analysis & Sourcing: Analyze historical sales data, venue seat maps and daily reports to identify buying opportunities and execute ticket purchases.
  • Investment Reporting: Calculate and report on key financial metrics including ROI, Net Profit Margins, and Break-Even Points for every potential ticket acquisition.
  • Portfolio Management: Monitor current inventory performance across secondary platforms and suggest price adjustments based on real-time supply changes.
  • Vendor Communication: Manage the 10% of the role focused on outreach (emailing/calling) sports teams or venues to execute wholesale ticket purchases and maintain professional partnerships.

Qualifications and Experience

We value analytical logic over specific industry experience. You are an ideal candidate if you possess:
  • Data Literacy & Navigation: Strong proficiency in Excel/Google Sheets. You can manipulate complex data sets to isolate high-ROI opportunities.
  • Financial Expertise: A strong grasp of key financial concepts including P&L, ROI, and Gross/Net Margins.
  • E-commerce/Product Background: You’ve worked in roles like Retail Buying, Category Management, or E-commerce Operations where you were responsible for choosing which products to stock.
  • Strategic Communication: You can build quick rapport with vendors and navigate wholesale discussions effectively.

Optional Skills

Prior experience in live events, sports, or ticketing domains is a plus but not required. Strong curiosity, self-motivation, and a bias toward action are highly valued.

Why Join Us?

  • Direct Partnership: No corporate layers; you work directly with the founder.
  • Flexible Paid Holidays: We offer a flexible holiday schedule based on your local calendar.
  • Performance-Based Bonus: This role includes an annual bonus structure tied directly to your performance.
  • 100% Remote: Work from anywhere with a fast internet connection.

Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

This job is exclusive to getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Official source: getonbrd.com.

Descripción del trabajo

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Outdoors The premises have outdoor spaces such as parks or terraces.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
Gross salary $3400 - 4000 Full time
Sr Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Python SQL NoSQL

Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de evaluar a los solicitantes de empleo. Fundada en 2014, Checkr pone tecnología moderna impulsada por aprendizaje automático en manos de los equipos de contratación, ayudando a contratar talento con una experiencia rápida, fluida y segura.

Checkr cuenta con más de 100,000 clientes como DoorDash, Coinbase, Lyft, Instacart y Airtable. Trabajar en Checkr implica colaborar con mentes brillantes, revolucionar un sector y abrir oportunidades a candidatos que suelen pasar desapercibidos. Checkr es reconocida en la lista Forbes Cloud 200 2024 y es una empresa innovadora de Y Combinator 2023.

Apply through Get on Board.

Job functions

Acerca del equipo/puesto

Buscamos un SR Data Engineer con experiencia para incorporarse a nuestro equipo de Plataforma de Datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene plataformas de datos escalables para tomar decisiones de contratación justas y seguras.

Como ingeniero del equipo de la plataforma de datos, trabajarás en la plataforma de datos centralizada de Checkr, fundamental para la visión de la empresa. La plataforma de datos centralizada es el núcleo de todos los productos clave orientados al cliente. Trabajarás en proyectos de gran impacto que contribuyen directamente a los productos de próxima generación.

Qué harás:

  • Serás un colaborador independiente capaz de resolver problemas y ofrecer soluciones de alta calidad con una supervisión mínima/de alto nivel y un alto grado de responsabilidad.
  • Aportarás una mentalidad centrada en el cliente y orientada al producto: colaborarás con los clientes y las partes interesadas internas para resolver ambigüedades del producto y ofrecer funciones impactantes.
  • Te asociarás con ingeniería, producto, diseño y otras partes interesadas en el diseño y la arquitectura de nuevas funciones.
  • Mentalidad experimental: autonomía y empoderamiento para validar las necesidades de los clientes, conseguir la aceptación del equipo y lanzar rápidamente un MVP.
  • Mentalidad de calidad: insistes en la calidad como pilar fundamental de tus productos de software.
  • Mentalidad analítica: instrumenta y despliega nuevos experimentos de productos con un enfoque basado en datos.
  • Entrega código de alto rendimiento, confiable, escalable y seguro para una plataforma de datos altamente escalable.
  • Supervisa, investiga, clasifica y resuelve los problemas de producción que surjan en los servicios propiedad del equipo.

Qualifications and requirements

  • Inglés fluido (reporta a jefatura en USA y las entrevistas técnicas son 100% en inglés). Adjunta tu CV en inglés para postular.
  • Licenciatura en un campo relacionado con la informática o experiencia laboral equivalente.
  • Más de 6-7 años de experiencia en desarrollo en el campo de la ingeniería de datos (más de 5 años escribiendo PySpark).
  • Experiencia en la creación de canalizaciones de procesamiento de datos a gran escala (cientos de terabytes y petabytes), tanto por lotes como en flujo continuo.
  • Experiencia con ETL/ELT, procesamiento de datos en flujo y por lotes a gran escala.
  • Gran dominio de PySpark, Python y SQL.
  • Experiencia en la comprensión de sistemas de bases de datos, modelado de datos, bases de datos relacionales, NoSQL (como MongoDB).
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake y AWS stack (EKS, EMR, Serverless, Glue, Athena, S3, etc.).
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Gran capacidad para resolver problemas y atención al detalle.

Desirable skills

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.
  • Conocimiento de almacenes de datos gráficos y vectoriales (preferible).

Conditions

  • Trabajo híbrido, vamos a la oficina 3 días a la semana y 2 días desde casa.
  • Almuerzo los días que vayas a la oficina.
  • Un entorno colaborativo y dinámico.
  • Contrato indefinido
  • Formar parte de una empresa internacional con sede en Estados Unidos.
  • Bono de $3.000 USD al año para formación y desarrollo.
  • Remuneración competitiva y oportunidad de crecimiento profesional y personal.
  • Cobertura médica, dental y oftalmológica al 100 % para empleados y familiares a cargo.
  • 5 días extra de vacaciones
  • RSU

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Meals provided Checkr provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Data Analyst / Data Engineer/Solution Architect
  • MAS Analytics
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence
En MAS Analytics creemos que los datos son el motor de la transformación empresarial. Nuestro equipo trabaja mano a mano con organizaciones líderes para convertir información en decisiones estratégicas, utilizando tecnologías de los players más importantes del mercado (AWS, Azure y GCP). Como parte de este equipo, tendrás la oportunidad de participar en proyectos que combinan ingeniería de datos, analítica avanzada y consultoría, en un entorno colaborativo donde la innovación y el aprendizaje continuo son parte del día a día.
Porque aquí no solo desarrollarás tecnología, sino también tu carrera. Te ofrecemos un espacio para crecer, aprender y participar en proyectos que marcan la diferencia en la transformación digital de las empresas. Serás parte de una cultura que valora la innovación, la colaboración y el impacto real.

Originally published on getonbrd.com.

Funciones del cargo

Tu misión será dar vida a soluciones que permitan a nuestros clientes aprovechar al máximo el valor de sus datos. Participarás en la creación de pipelines que aseguren la integración y calidad de la información, diseñarás modelos de datos eficientes y colaborarás en la construcción de arquitecturas en entornos cloud como AWS, GCP o Azure.
Además, serás responsable de desarrollar reportes y dashboards que faciliten la toma de decisiones estratégicas.
Pero este rol va más allá de lo técnico: trabajarás directamente con los clientes, entendiendo sus necesidades, participando en el levantamiento de requerimientos y proponiendo soluciones que impacten en su negocio.
Serás parte de un equipo que no solo entrega tecnología, sino también confianza y valor.

Requerimientos del cargo

Queremos a alguien con hasta un año de experiencia en análisis o ingeniería de datos, con conocimientos en SQL, modelado de datos y herramientas de BI como Power BI o Tableau. Valoramos que tengas nociones en programación (Python o R) y experiencia básica en entornos cloud.
Más allá de lo técnico, buscamos una persona curiosa, proactiva y con habilidades para comunicarse con clientes, capaz de planificar y organizar su trabajo en proyectos dinámicos.
Si te apasiona aprender, resolver problemas y trabajar en equipo, este rol es para ti.

Condiciones

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs MAS Analytics covers some computer repair expenses.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

This job is original from Get on Board.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • BICE VIDA
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Send CV through getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Ingeniero de Datos Junior para desempeñarse en el COE de Datos, perteneciente a la Gerencia de Planificación y Gobierno de Datos.
🧭 El objetivo del cargo es apoyar la construcción, mantenimiento y mejora de los procesos que permiten que los datos lleguen limpios, ordenados y disponibles para que la organización pueda analizarlos y tomar buenas decisiones.
💡Tendrás la oportunidad contribuir aprendiendo y aplicando buenas prácticas, colaborando con ingenieros senior y equipos de negocio, y asegurando que los datos fluyan de forma segura, confiable y eficiente dentro de la plataforma de datos📊.

📋 En este rol deberás:
  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Comprender conceptos fundamentales de ETL/ELT.
  • Validación básica de datos.
  • Identificar errores en ejecuciones o datos.

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 1 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas.
  • Experiencia trabajando en alguna nube (AWS, GCP, Azure)
  • Conocimiento en herramientas de consulta de datos, tales como SQL y Python (nivel intermedio).
  • Participación en proyectos relacionados a datos, independiente de la tecnología utilizada.

✨Sumarás puntos si cuentas con:

  • AWS
  • Terraform
  • Spark/Scala
  • Tableau
  • Github
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Ingeniero de Datos Middle
  • BICE VIDA
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

This offer is exclusive to getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un/a Ingeniero/a de Datos Middle para integrarse al COE de Datos e IA, perteneciente a la Gerencia de Planificación y Gobierno de Datos.

🚀 Objetivo del cargo

Apoyar en el diseño e implementación de soluciones tecnológicas asociadas al manejo de datos que permitan fomentar el uso y la toma de decisiones basadas en datos a nivel compañía. a

Se espera que pueda liderar iniciativas dentro de la misma índole (datos) con el apoyo de un Ingeniero de Datos Senior o del Líder de Datos. Aplicar buenas prácticas de arquitectura y gobernanza, y colaborar con áreas de negocio, analítica y TI para habilitar un ecosistema de datos moderno, escalable y seguro ☁️📊

🔍 Principales funciones:

  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Asegurar el correcto uso de los servicios AWS en términos de usabilidad y costos.
  • Diseñar e implementar soluciones automatizadas que consideren los lineamientos de arquitectura y ciberseguridad de la compañía

✨ Si te motiva trabajar con datos, tecnología y generar impacto en el negocio, ¡te invitamos a postular y ser parte de BICE Vida!

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 3 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas y 2 años en AWS.
  • Conocimiento y experiencia trabajando en AWS (Intermedio o avanzado): A nivel práctico, no sólo académico, servicios como: Lambda Function, Glue Jobs (Spark y PythonShell), Glue Crawlers, DMS, Athena, Lake Formation, EventBridge, Step Functions.
  • Experiencia y conocimento en Herramientas de consulta de datos (SQL Intermedio o Avanzado y Python Intermedio o Avanzado) y versionamiento de códigos fuentes.
  • Participación en proyectos relacionados a datos ( Ingeniero de Datos p Analista de Datos trabajando en modelamiento de datos).

✨Sumarás puntos si cuentas con:

  • Terraform
  • Spark
  • Tableau
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Semi Senior Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Web server Virtualization
BC Tecnología es una consultora de TI especializada en servicios IT, con foco en diseñar soluciones y formar equipos que acompañen a clientes en sectores como financiero, seguros, retail y gobierno. El proyecto en curso busca a un/a Semi Senior Data Engineer para un equipo orientado a la gestión de datos y la construcción de pipelines robustos. El objetivo es habilitar flujos de datos eficientes, escalables y seguros, alineados a prácticas de gobierno de datos, sinergias con arquitectos y líderes técnicos, y entrega continua de valor al negocio.
Trabajarás en un entorno que premia la colaboración, la innovación y la mejora continua, con un mix de trabajo híbrido en Las Condes y presencia colaborativa cuando se requiera, para asegurar la cohesión técnica y la calidad de los entregables.

© getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines de datos eficientes para ingesta, transformación y disponibilización de datos, priorizando escalabilidad y rendimiento.
  • Asegurar la calidad, consistencia y confiabilidad mediante pruebas y validaciones técnicas a lo largo del ciclo de datos.
  • Implementar y mantener flujos CI/CD en entornos de desarrollo y producción para pipelines de datos.
  • Diseñar soluciones avanzadas con resiliencia, idempotencia y arquitecturas orientadas a eventos (event-driven).
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje, promoviendo prácticas de data discipline.
  • Optimizar procesos y estándares de ingesta y transformación, proponiendo mejoras continuas y buenas prácticas.
  • Colaborar estrechamente con arquitectos y líderes técnicos para asegurar el cumplimiento de lineamientos y arquitectura de referencia.

Requisitos y perfil

Estamos buscando un/a profesional con al menos 2 años de experiencia diseñando y construyendo pipelines de datos. Se requiere dominio avanzado de Python, Spark y SQL, y experiencia trabajando en AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia en arquitecturas Lakehouse (Delta Lake, Apache Iceberg o Apache Hudi).
Competencias técnicas complementarias incluyen visión de datos, capacidad para resolver problemas complejos, enfoque en calidad y buenas prácticas de pruebas, y experiencia en entornos de entrega continua. Se valora pensamiento analítico, proactividad, creatividad y habilidad para comunicar resultados a equipos multidisciplinarios. Se ofrece un entorno de aprendizaje y desarrollo contínuo, con foco en crecimiento profesional y trabajo colaborativo.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB
Gross salary $2700 - 3500 Full time
Staff Data Analyst
  • Checkr
  • Santiago (Hybrid)
Data Analysis SQL Communication Data Modeling

Checkr está creando una plataforma de datos para facilitar la toma de decisiones seguras y justas. Fundada en 2014, la tecnología innovadora y la sólida plataforma de datos de Checkr ayudan a los clientes a evaluar riesgos y garantizar seguridad y cumplimiento normativo para crear lugares de trabajo y comunidades de confianza. Checkr cuenta con más de 100.000 clientes, entre los que se incluyen DoorDash, Coinbase, Lyft, Instacart y Airtable. Como Staff Data Analyst, trabajarás codo con codo con varios departamentos de la empresa para desarrollar modelos complejos y comunicar de forma eficaz su impacto en el negocio, garantizando que Checkr mantenga su posición de liderazgo en eficiencia, calidad y otras métricas clave identificadas por ti y las partes interesadas pertinentes. Esta función fundamental pertenece a la organización de la plataforma de datos y reportarás directamente al jefe de la plataforma de datos.

Apply to this job without intermediaries on Get on Board.

Responsabilidades del cargo

  • Colaborar con las partes interesadas de la empresa para obtener un profundo conocimiento de nuestros productos y clientes.
  • Comunicar de manera eficaz las conclusiones y recomendaciones de tu análisis a un público no técnico en todos los niveles de la organización.
  • Colaborar estrechamente con los propietarios de productos y los socios financieros para analizar el valor de las nuevas funciones, mejoras y proyectos.
  • Basándote en análisis exploratorios, crear perfiles de clientes y desarrollar métricas para informar las estrategias de precios y monetización.
  • Trabajar con ingenieros para desarrollar fuentes de datos y métricas básicas que puedan utilizar toda la empresa.
  • Evangelista de la experimentación: educar y promover una cultura basada en los datos a través de la experimentación.

Calificaciones y Requisitos del cargo

  • Más de cuatro años de experiencia en un puesto altamente analítico, con al menos tres años en un puesto de análisis de productos/ciencia de datos.
  • Competencia avanzada en SQL, así como comprensión de los principios del almacenamiento de datos, incluido el modelado de datos; se valorará la experiencia con dbt.
  • Excelentes habilidades analíticas y de resolución de problemas, con capacidad para identificar y priorizar oportunidades de crecimiento basadas en datos y resultados de experimentos.
  • Fuertes habilidades de comunicación escrita y verbal y capacidad para sintetizar soluciones analíticas complejas en conocimientos prácticos y comunicar el impacto empresarial a un público no técnico.
  • Persona con iniciativa demostrada y excelentes habilidades para establecer prioridades, capaz de llevar a cabo proyectos con un mínimo de orientación.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Data Scientist Senior Freelance AWS/Sagemaker
  • CoyanServices
Python SQL Virtualization Big Data

CoyanServices busca apoyar a un cliente regional a través de una empresa tecnológica privada. El proyecto es 100% remoto y freelance, abierto a profesionales de cualquier país de Latinoamérica. Trabajarás en un entorno tecnológico moderno, con foco en soluciones analíticas para decisiones estratégicas. El equipo utiliza AWS para desplegar soluciones de ML/AI y necesitamos un Data Scientist Senior para diseñar, entrenar y desplegar modelos end‑to‑end, estandarizar ingesta y gobierno de datos en el Data Lake, y traducir insights técnicos en productos analíticos utilizables para decisiones de negocio.

Objetivos del rol:

Diseñar, entrenar y desplegar modelos de ML/AI end-to-end sobre infraestructura AWS.

Estandarizar procesos de ingesta, limpieza y gobierno de datos en el Data Lake.

Traducir insights técnicos en productos analíticos útiles para la toma de decisiones.

Exclusive to Get on Board.

Funciones

Ingeniería de datos: Pipelines en S3, Glue, Lambda, Athena. Feature engineering, validación y monitoreo de calidad.

Modelado estadístico y ML: Regresión, clasificación, series de tiempo, NLP. Evaluación rigurosa y documentación técnica.

Deployment y MLOps: Productización en SageMaker/Lambda. CI/CD, versionamiento y monitoreo de modelos.

Análisis y comunicación: Dashboards, storytelling y soporte a decisiones estratégicas.

Gobierno y ética de datos: Mejores prácticas, documentación, reproducibilidad y cumplimiento normativo.

Requisitos y perfil

Formación en Ingeniería, Estadística, Matemáticas, Ciencias de la Computación o afines.

Python avanzado (pandas, numpy, scikit-learn, PyTorch/TensorFlow deseable).

Experiencia comprobable con AWS: S3, Athena, Data Lake, Lambda, SageMaker Studio.

Sólida base en estadística aplicada e inferencia. • Experiencia completa en ciclos de vida ML/AI.

SQL avanzado (Athena, Presto, Redshift).

Control de versiones, documentación y testing de modelos/datos.

Deseables: Conocimientos en PySpark o SparkSQL. • Visualización con herramientas como Power BI.

Habilidades blandas

Pensamiento crítico y enfoque científico.

Autonomía, comunicación efectiva y colaboración.

Curiosidad y aprendizaje continuo.

Beneficios

Freelancer. Oportunidad de trabajar con una empresa tecnológica líder y un cliente regional. Modalidad 100% remota, flexible, con posibilidad de crecimiento profesional. Participación en proyectos estratégicos y exposición a tecnologías punteras en AWS y ML/AI. Agenda y horarios acordes al trabajo remoto. Si te interesa, te invitamos a aplicar para conversar sobre el encaje y próximos pasos.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Agile Git Virtualization Amazon Web Services
BC Tecnología, una consultora de TI con enfoque en soluciones para clientes en finanzas, seguros, retail y gobierno, busca un Data Engineer AWS para un proyecto orientado a arquitecturas Lakehouse y pipelines de datos escalables. Trabajarás en un entorno híbrido, con énfasis en ingesta, procesamiento y gobierno de datos, asegurando calidad y observabilidad de flujos de datos en un ecosistema AWS.

Apply exclusively at getonbrd.com.

Funciones del rol

  • Diseñar e implementar pipelines de datos escalables en AWS y entornos Lakehouse.
  • Desarrollar ingestas eficientes, transformaciones y consumo de datos con buena gobernanza y calidad.
  • Configurar monitoreo, logging y observabilidad de pipelines con herramientas de AWS y terceros.
  • Trabajar con herramientas como AWS Glue, Glue Catalog, Lambda, Step Functions, EventBridge, CloudWatch, S3, Redshift/Serverless/Spectrum, Athena, Airflow, Terraform, GitHub, Jira y Confluence.
  • Colaborar en equipos multidisciplinarios para entregar soluciones robustas y alineadas a las necesidades del negocio.

Requisitos y perfil

  • Experiencia demostrable como Data Engineer enfocado en AWS y arquitecturas Lakehouse.
  • Conocimientos en patrones de ingesta y consumo de datos, gobernanza y calidad de datos.
  • Dominio de herramientas AWS mencionadas y experiencia en orquestación con Airflow y Terraform.
  • Buenas prácticas de monitoreo, observabilidad y performance de pipelines.
  • Capacidad de diseño, documentación y trabajo en entornos Agile.
  • Espíritu de aprendizaje continuo, proactividad y habilidades de comunicación para coordinar con equipos internos y clientes.

Deseables

  • Certificaciones AWS relacionadas con data (por ejemplo, AWS Certified Data - Specialty).
  • Experiencia en Spark/EMR, Redshift Serverless, Glue Studio o herramientas equivalentes.
  • Conocimientos de DBT y prácticas de calidad de datos en Lakehouse.
  • Experiencia en entornos regulados y cumplimiento de seguridad de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2600 Full time
DBA Oracle
  • Coderslab.io
Python SQL Oracle Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply directly from Get on Board.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).
Habilidades:
- Competencia avanzada en administración de bases de datos Oracle, incluyendo versiones recientes (Oracle 19c o superior).
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM (Automatic Storage Management), y Oracle Multitenant.
- Experiencia en Oracle Cloud Infrastructure (OCI) y otras nubes públicas, como Azure o AWS (deseable).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- Conocimientos en PLSQL y tunning a sentencias SQL

Condiciones

Disponibilidad: Inmediata.
Horario de Chile

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1000 - 1400 Full time
Data Analyst
  • Coderslab.io
  • Lima (Hybrid)
HTML5 Python Data Analysis SQL

CodersLab es una empresa dedicada al desarrollo de soluciones dentro del rubro IT y actualmente nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Analyst

Buscamos un/a Data Analyst para unirse a nuestro equipo y participar en el desarrollo de aplicaciones móviles escalables, modernas y de alto impacto. Trabajarás en un entorno colaborativo, con proyectos desafiantes y oportunidades reales de crecimiento.

Find this vacancy on Get on Board.

Funciones del cargo

  • Desarrollo de funcionalidad de gestión del canal con python y html5.
  • Documentación funcional de los desarrollos.
  • Carrera sistemas o relacionados.
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.
  • Recopilar y limpiar datos: Obtener datos de diversas fuentes (bases de datos, redes sociales, hojas de cálculo, etc.) y luego limpiarlos, procesando valores faltantes, corrigiendo errores y eliminando inconsistencias para asegurar su calidad.
  • Analizar datos: Utilizar técnicas estadísticas y otras herramientas para identificar correlaciones, tendencias y patrones dentro de los conjuntos de datos.
  • Interpretar resultados: Analizar los resultados del análisis para entender qué significan y cómo pueden ayudar a la empresa a tomar mejores decisiones.
  • Comunicar hallazgos: Presentar los resultados del análisis de forma clara y comprensible a través de informes, paneles (dashboards) y visualizaciones (gráficos, tablas) para stakeholders y otros equipos.
  • Identificar riesgos y oportunidades: Detectar tendencias, problemas potenciales y oportunidades de crecimiento para la empresa.
  • Apoyar la toma de decisiones: Facilitar la toma de decisiones estratégicas en diferentes áreas de la organización, como ventas, inventario y gestión de servicios.
  • Crear informes y dashboards: Generar informes periódicos y dashboards interactivos que se actualizan automáticamente para mantener a todos informados.

Requerimientos del cargo

Experiencia entre 2 y 3 años

  • Experiencia en SQL Server
  • Experiencia en Python
  • Experiencia en BigQuery
  • Experiencia en Gitlab
  • Experiencia en ETLs
  • Experiencia en HTML5
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.

Condiciones

Modalidad de contratación: Recibo por honorarios
Duración del proyecto: 6 meses
Modalidad: Hibrida (3 veces a oficina)

APPLY VIA WEB
$$$ Full time
Data Analyst – Proyecto de Migración Digital
  • BC Tecnología
  • Lima (Hybrid)
HTML5 Python Data Analysis SQL
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un Data Analyst para formar parte de un proyecto estratégico de Migración Digital enfocado en evolucionar el canal digital del cliente BFPE. Participarás en el desarrollo, documentación y mejora continua de funcionalidades para una nueva plataforma web, como parte de la migración desde Telegestor APK. El rol combina desarrollo, transformación de datos y optimización de procesos para entregar un canal digital robusto y escalable.
El proyecto implica trabajo conjunto con equipos técnicos y funcionales para asegurar requisitos, calidad y despliegues eficientes. Serás parte de un equipo ágil, con enfoque en innovación y mejora continua, contribuyendo a una migración exitosa que impacta directamente la operación digital.

Job opportunity on getonbrd.com.

Funciones

  • Desarrollar nuevas funcionalidades para el canal digital utilizando Python y HTML5.
  • Participar en la transformación de datos y construcción de pipelines ETL.
  • Analizar, diseñar y documentar especificaciones técnicas y funcionales.
  • Implementar consultas y procesos de explotación de datos en SQL Server y BigQuery.
  • Gestionar control de versiones y despliegues con GitLab.
  • Colaborar con equipos técnicos y funcionales para asegurar el cumplimiento de los requisitos.
  • Participar en pruebas, validaciones y despliegue de mejoras.
  • Proponer mejoras que fortalezcan la plataforma digital.

Descripción

Buscamos un Data Analyst con 2 a 3 años de experiencia en roles similares, con capacidad para trabajar en un entorno regulado y centrado en datos. Requisitos técnicos demostrables: SQL Server, Python, BigQuery, ETLs, GitLab y HTML5. Se valorará experiencia en banca, finanzas o industrias altamente reguladas. El/la candidata ideal será analítico/a, orientado/a a la calidad de datos, con habilidades para documentar y comunicar hallazgos de manera clara, y capaz de colaborar eficazmente con equipos multifuncionales. Se ofrece una modalidad híbrida en Lima y la posibilidad de participar en un proyecto estratégico con impacto directo en el canal digital del cliente, dentro de un entorno de aprendizaje y desarrollo continuo.

Deseable

Experiencia previa en proyectos de migración de plataformas digitales y en entornos de alta seguridad de información. Conocimiento de herramientas de visualización (Power BI, Tableau) y metodologías ágiles. Experiencia en integración de datos entre sistemas legados y plataformas modernas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB
Gross salary $2400 - 3000 Full time
Data Engineer Senior
  • Coderslab.io
Big Data ETL Cloud Computing Automation

En Coderslab.io trabajamos en un entorno de alta demanda tecnológica, con equipos globales que combinan talento de primer nivel. Nuestro cliente FIFTECH lidera iniciativas de datos avanzadas y está desarrollando el proyecto Datalake 2.0 en Colombia. Este rol se integra en el área de Data Factory dentro de la gerencia de Plataforma, Arquitectura y Data. El objetivo es fortalecer el procesamiento de datos en un entorno Big Data en Google Cloud Platform (GCP), contribuyendo a la evolución continua de nuestro Data Lake y a la entrega de información analítica confiable para decisiones estratégicas.

Apply at the original job on getonbrd.com.

Funciones y responsabilidades

  • Analizar, diseñar, desarrollar y probar procesos de ingesta de datos (ELT) en entornos GCP Big Data.
  • Mantener y evolucionar procesos ETL/ELT, asegurando rendimiento, escalabilidad y fiabilidad.
  • Desarrollar pipelines de datos serverless y automatizar flujos de datos para operaciones analíticas.
  • Integrar, consolidar y limpiar datos para su uso en analítica y reporting.
  • Apoyar en arquitectura y diseño de plataformas de datos dentro de la unidad de Data Factory, colaborando con equipos multidisciplinarios.
  • Participar en la definición de estándares de modelado de datos y buenas prácticas de ingeniería de datos.

Perfil requerido y experiencia

Buscamos un Data Engineer Senior con sólido background en procesos ELT/ETL en entornos Big Data sobre GCP y Data Lake. Debe demostrar capacidad para diseñar e implementar pipelines data-driven, experiencia en desarrollo de pipelines serverless y automatización de procesos. Se valorará la habilidad para modelar y estructurar datos orientados a análisis, así como la capacidad de integrarse de forma proactiva en proyectos complejos, con enfoque técnico y colaborativo. Se espera autonomía, buena comunicación y capacidad de trabajar en un entorno de ritmo alto.

Requisitos deseables

Experiencia previa en Data Lake en GCP, con enfoque en ingesta y transformación de grandes volúmenes de datos. Conocimiento de herramientas de orquestación y automatización, como Airflow o Workflows de GCP. Habilidades para trabajar con equipos de Arquitectura y Producto, capacidades de análisis y resolución de problemas, y orientación a resultados. Se valorará experiencia en entornos multinacionales y trabajo remoto colaborativo.

Beneficios y condiciones

Contrato de plazo fijo con duración estimada de 6 meses. Salario entre 2.500.000 y 2.700.000 CLP, según experiencia. Equipo propio no provisto; se requiere PC/notebook personal. Ventajas de trabajar con un cliente líder en soluciones de datos y un equipo global de alto rendimiento, con oportunidades de aprendizaje y crecimiento en tecnologías de vanguardia. Modalidad remota con posibles coordinación en Colombia y región. Si te apasiona la ingeniería de datos y quieres contribuir a un Data Lake avanzado, te invitamos a aplicar y formar parte de nuestro equipo.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1500 - 2400 Full time
Consultor Científico de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Data Analysis SQL

🚀 ¡Estamos buscando talento para el equipo Lab de Microsystem! ⚗️

Si te gustan los datos, la programación y los desafíos que realmente generan impacto, acá hay una oportunidad muy entretenida. Estamos desarrollando proyectos innovadores ligados a Machine Learning, ingeniería y ciencia de datos: desde modelos predictivos de pesca (sí, con datos reales y complejos 👀), hasta modelos bancarios inteligentes que anticipan comportamientos y mejoran decisiones de negocio.

Buscamos a alguien motivado, curioso y con ganas de aprender tecnologías de punta. Alguien que disfrute mezclar lo técnico con lo consultivo: entender al cliente, su contexto y transformar eso en modelos funcionales y útiles.

Trabajarás con un equipo joven, colaborativo y con experiencia 🤓, en un ambiente donde se prueba, se crea y se innova. Si te gusta programar, experimentar y resolver problemas reales, este es tu lugar 💪.

¿Te interesa o conoces a alguien? ¡Hablemos! 🚀

Apply directly from Get on Board.

Funciones del cargo

1. Levantamiento y entendimiento del negocio con el cliente

  • Participar en reuniones con clientes para comprender sus necesidades, procesos, problemas y expectativas.
  • Traducir requerimientos de negocio en objetivos analíticos y diseños de modelos.
  • Presentar hallazgos, resultados y recomendaciones de manera clara y comprensible.

2. Preparación, exploración y análisis de datos

  • Recopilar, limpiar y transformar datos provenientes de distintas fuentes.
  • Realizar análisis exploratorio (EDA) para descubrir patrones, anomalías y oportunidades de modelamiento.
  • Definir y construir pipelines de preparación de datos cuando sea necesario.

3. Construcción y entrenamiento de modelos predictivos

  • Diseñar, programar y entrenar modelos de Machine Learning (supervisados y no supervisados).
  • Seleccionar técnicas adecuadas según el problema: regresión, clasificación, series de tiempo, clustering, árboles, ensembles, etc.
  • Ajustar, validar y optimizar modelos para maximizar desempeño y robustez.

4. Implementación y despliegue de modelos

  • Implementar pipelines end-to-end: desde ingesta de datos hasta predicciones automatizadas.
  • Trabajar con herramientas y entornos de desarrollo modernos (Python, Jupyter, Git, APIs, etc.).
  • Colaborar con equipos Dev/Data Engineering para integrar los modelos en producción.

5. Documentación y comunicación

  • Documentar procesos, decisiones técnicas, métricas, versiones de modelos y flujos de trabajo.
  • Preparar presentaciones y reportes para explicar resultados a stakeholders técnicos y no técnicos.

6. Iteración, mejora continua y acompañamiento al cliente

  • Monitorear el rendimiento de los modelos y proponer mejoras.
  • Acompañar al cliente en el uso, interpretación y adopción del modelo.
  • Levantar nuevas oportunidades de mejora o proyectos relacionados.

7. Participación activa en el equipo Lab

  • Compartir aprendizajes, buenas prácticas y nuevos enfoques con el equipo.
  • Explorar tecnologías emergentes y sugerir innovaciones aplicables a los proyectos.

Requerimientos del cargo

Requisitos Técnicos (Hard Skills)

  • Formación en Ingeniería, Estadística, Matemáticas, Computación o carrera afín.
  • Experiencia comprobable en construcción de modelos predictivos (regresión, clasificación, series de tiempo, clustering, etc.).
  • Dominio de Python para ciencia de datos (pandas, scikit-learn, NumPy, matplotlib, etc.).
  • Conocimientos sólidos en limpieza, transformación y análisis exploratorio de datos (EDA).
  • Manejo de bases de datos y consultas SQL.
  • Conocimiento en APIs REST e integración de datos.
  • Capacidad para construir pipelines end-to-end de ML (ingesta, entrenamiento, evaluación, despliegue).
  • Manejo a nivel básico de herramientas analíticas como Power BI y/o Tableau para exploración y entendimiento de datos.
  • Deseable: experiencia en ML Ops, automatización, versionado de modelos o despliegue en la nube (AWS, Azure, etc.).

Requisitos Interpersonales (Soft Skills)

  • Habilidad para comunicarse claramente con clientes no técnicos.
  • Capacidad de levantar requerimientos, entender el contexto del negocio y traducirlo a problemas analíticos.
  • Buenas habilidades de presentación y storytelling con datos.
  • Proactividad, autonomía y ganas de aprender tecnologías nuevas.
  • Trabajo colaborativo en equipos multidisciplinarios.

Otros Deseables

  • Experiencia en consultoría o interacción directa con clientes.
  • Conocimiento en herramientas de visualización adicionales (Tableau, Looker, Power BI, etc.).
  • Inglés intermedio para lectura de documentación y soporte técnico.
  • Conocimiento de metodologías como CRISP-DM y otras a fines.
  • Conocimiento en otros lenguajes (TypeScript, JavaScript, etc.)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Education stipend Microsystem covers some educational expenses related to the position.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Analista de Datos / Business Intelligence
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Data Analysis Excel
En BC Tecnología somos una consultora de TI que acompaña a clientes de sectores financieros, retail, tecnológico y público. Buscamos un/a Analista de Datos / Business Intelligence para transformar datos en insights que orienten decisiones estratégicas. Trabajarás en proyectos de alto impacto dentro de equipos interdisciplinarios, implementando soluciones de analítica y BI que faciliten la toma de decisiones en clientes de alto nivel. Formarás parte de una organización con enfoque en metodologías ágiles, formación de equipos y desarrollo de productos, con un portfolio de servicios que incluye consultoría, outsourcing y desarrollo de proyectos.

Job opportunity on getonbrd.com.

Principales Responsabilidades

  • Transformar datos en información clara y accionable mediante análisis estadístico, modelado y visualización.
  • Recopilar, analizar y transformar datos de distintas fuentes para generar insights de negocio.
  • Diseñar y desarrollar reportes, dashboards e indicadores clave (KPIs) en Power BI u otras herramientas de visualización.
  • Aplicar técnicas de análisis estadístico y exploración de datos para detectar tendencias, patrones y oportunidades de mejora.
  • Colaborar con equipos de negocio, BI y tecnología para definir métricas relevantes.
  • Asegurar la calidad, integridad y consistencia de los datos; documentar procesos y estructuras de datos.
  • Mantenerse actualizado/a en herramientas de analítica, visualización y ciencia de datos; cumplir con políticas de seguridad y cumplimiento.

Requisitos y Perfil

Formación: Ingeniería, Estadística, Economía, Ciencia de Datos, Administración u afines. Experiencia: mínimo 2 años en roles de Análisis de Datos, Inteligencia de Negocio o Control de Gestión.
Conocimientos Técnicos clave:
  • Modelado de datos y definición de KPIs.
  • Power BI (modelado, DAX, visualizaciones).
  • SQL (consultas y optimización).
  • Python y Power Automate.
  • Excel avanzado.
  • Conocimientos en estadística descriptiva e inferencial aplicada a negocio.
  • Experiencia en limpieza y transformación de datos.
Competencias blandas: pensamiento analítico, orientación a resultados, comunicación efectiva y capacidad para trabajar en equipos multidisciplinarios en entornos ágiles.

Deseables

Experiencia en proyectos de BI en el sector financiero o público; conocimiento de herramientas de visualización adicionales; experiencia en automatización de procesos y manejo de grandes volúmenes de datos; habilidad para traducir requerimientos de negocio en soluciones técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB
Gross salary $2500 - 3200 Full time
Senior Data Consultant
  • Artefact LatAm
Python Data Science English Data Visualization

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

This job is available on Get on Board.

Tus responsabilidades serán:

  • Realizar investigaciones exhaustivas y análisis de información relevante para el proyecto.
  • Desarrollar diagnósticos y proponer soluciones adaptadas a las necesidades específicas de cada cliente, utilizando un enfoque analítico y estratégico.
  • Crear entregables innovadores y orientados a resultados, con un enfoque en la transformación digital.
  • Aplicar rápidamente el aprendizaje adquirido de diversas industrias y herramientas para abordar los desafíos de cada cliente.
  • Presentar de manera efectiva los hallazgos y resultados del proyecto, adaptándose a las necesidades de los stakeholders del cliente.
  • Contribuir a la elaboración de propuestas para potenciales clientes, mediante un análisis detallado de la industria y la identificación de soluciones adecuadas.
  • Construir y mantener relaciones sólidas con los clientes, actuando como un socio estratégico en su camino hacia el éxito.
  • Apoyar al equipo en la planificación estratégica y en la transferencia de conocimientos y mejores prácticas.

Los requisitos del cargo son:

  • Titulación en Ingeniería Civil Industrial, Ingeniería Industrial, Economía o áreas afines.
  • Experiencia laboral mínima de 4 a 6 años en consultoría o roles relacionados.
  • Dominio avanzado de herramientas de Office y/o Google.
  • Pensamiento Analítico: Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.
  • Conocimiento profundo de diversas herramientas y soluciones digitales.
  • Inglés fluido para comunicarse oralmente con los clientes.

Algunos deseables no excluyentes:

  • Deseable experiencia en programación en Python y uso de herramientas de visualización como PowerBI o Tableau.
  • Conocimiento o nociones de Data Science.

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Outdoors The premises have outdoor spaces such as parks or terraces.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $3000 - 5000 Full time
Senior Data Engineer – AI Data Infrastructure & Automation
  • Common Forge Ventures
Python SQL Cloud Computing Automation

Common Forge Ventures is seeking a Senior Data Engineer to join one of our venture studio startups, a high-growth company building the world’s most robust, contextualized buyer intelligence platform for investment banks, private equity, and strategic acquirers. You will own and evolve the data infrastructure that ingests, cleanses, and enriches large-scale data from APIs, web scraping agents, LLM outputs, and internal datasets. This role focuses on scalable pipelines, data governance, AI agent orchestration, and seamless integration with product teams to deliver reliable data APIs and feeds that power advanced buyer insights.

Apply directly through getonbrd.com.

Key Responsibilities

  • Data Architecture & Pipelines: Design and optimize large-scale ETL/ELT pipelines across structured and semi-structured data sources. Implement data validation, normalization, and reconciliation frameworks to ensure data integrity. Automate ingestion and transformation processes using orchestration tools.
  • AI Agent Orchestration & Integration: Develop, train, and refine LLM-based data agents to collect, clean, update, and infer new attributes for buyer profiles. Build robust prompting architectures, JSON schema validation, and feedback loops to ensure high-quality structured outputs. Collaborate to optimize agent reasoning, reduce hallucinations, and integrate embeddings for context-aware inference.
  • Data Governance & Quality: Define standards for data versioning, lineage, and observability. Build quality-control layers for agent-generated data, including confidence scoring, human-in-the-loop validation, and automated correction mechanisms. Ensure compliance with data governance, privacy, and security requirements.
  • Collaboration & Product Integration: Work cross-functionally with AI, product, and engineering teams to deliver data APIs and feeds. Partner with leadership to prioritize data reliability, scalability, and innovation. Lead ongoing improvements to the data infrastructure roadmap.

Required Skills & Experience

5+ years in data engineering (or similar) with strong experience in Python (Pydantic a bonus), SQL, and orchestration frameworks. Proficiency with cloud data stacks (including GCP). Demonstrated ability to design or integrate AI/LLM agents for data collection, enrichment, or inference tasks. Track record of building structured data pipelines from unstructured sources, with error recovery, validation, and monitoring. Deep understanding of prompt engineering, function calling, embedding-based retrieval, and data labeling workflows. Excellent communication, documentation, and cross-team collaboration skills. You care deeply about your craft and maintain clean, scalable projects even when not directly supervised.

Desirable Skills & Experience

Familiarity with LangChain or other agent frameworks (e.g., LlamaIndex, Haystack), tool-calling, and similar agent orchestration technologies. Experience with data quality scoring, schema evolution, and metadata management (dbt, Great Expectations, etc.). Background in investment data, market intelligence, or deal-sourcing platforms. Experience leading small data or engineering teams.

Benefits & Perks

From Common Forge Enterprises, you will enjoy a remote working environment with flexible hours, enabling you to balance personal and professional commitments effectively. We prioritize opportunities for professional development and growth, fostering an inclusive and collaborative team culture. Join us to access the latest technologies and tools as we work toward impactful solutions together! 🚀

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $3500 - 4300 Full time
Data Scientist ML Engineer
  • Pulsar Technologies
Python Analytics DevOps Continuous Deployment
Project and Role
 The role involves developing, deploying, and maintaining ML models on cloud platforms using Databricks, MLflow, and Azure DevOps. The goal is to build reproducible, monitored, and well-governed analytics solutions that meet the client’s MLOps best practices. The main focus is automating the ML lifecycle—from data preparation and feature engineering to training, registration, deployment, and monitoring in production. Experience designing scalable, resilient, and maintainable solutions aligned with business goals and performance metrics is highly valued.

Apply at getonbrd.com without intermediaries.

Description

As a Data Scientist - ML Engineer, you will be responsible for designing and maintaining ML models in production, ensuring quality and compliance with MLOps practices. 
  • Design, train, and evaluate supervised and unsupervised models, with an emphasis on reproducibility and traceability.
  • Develop data and feature pipelines, including data cleaning, transformation, and quality validation.
  • Manage the model lifecycle using MLflow: tracking, registration, and versioning of models and metrics.
  • Work with Databricks for analytics and ML, optimizing notebooks and shared notebook workflows.
  • Oversee deployments and monitoring in Azure DevOps, applying Gitflow practices, CI/CD, and version control.
  • Define and follow coding standards (PEP8), implement model and pipeline testing, and manage environments (dev, prod).
  • Set up performance metrics, anomaly detection, and alerts for models in production.
  • Collaborate with data engineers, tech leads, and other stakeholders to align solutions with business objectives.
  • You are expected to demonstrate teamwork, proactivity in problem-solving, and commitment to quality and continuous improvement.

Requirements

We are looking for a Data Scientist with strong experience in Machine Learning Engineering.
The candidate will be responsible for designing, developing, and maintaining advanced analytics models. They will ensure quality and compliance with the client’s MLOps best practices by implementing scalable, reliable, and reproducible ML solutions on cloud platforms. Experience in automating the ML lifecycle and continuously improving model performance will be highly valued. 
Requirements
  • Education: Engineering, Computer Science, Mathematics, Statistics, or a related field.
  • Experience: Minimum of 3 years applying ML in production environments.
  • Programming: Python (PEP8, Pylint, Black) and adherence to clean coding standards.
  • Modeling: Design and training of supervised and unsupervised models.
  • MLOps: Data preparation, feature engineering, training, registration, deployment, and monitoring.
  • Tools: Databricks for analytics and ML; MLflow for model lifecycle management.
  • DevOps: Azure DevOps (Gitflow, CI/CD, version control).
  • Best Practices: Model and pipeline testing, environment management (dev, prod).
  • Performance: Ability to configure and track metrics (MAE, RMSE, F1, AUC-ROC), anomaly detection, and production alerts.
  • Collaboration: Strong communication skills to work with multidisciplinary teams and convey results to both technical and non-technical stakeholders.

Desirable skills

  • Knowledge of analytical project frameworks (e.g., Databricks Asset Bundles), advanced cloud architecture, and scalable ML solution design
  • Experience with Lakeview or other tools for interactive visualization and monitoring
  • Proven experience implementing end-to-end automated ML pipelines
  • Ability to manage user feedback to continuously improve models.

Conditions

  • 100% remote
  • Spanish language, professional proficiency is required
  • Chile-based is preferred
  • Must be compatible with Chilean timezone

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Analytics Engineer
  • Artefact LatAm
Python Analytics MySQL SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply to this job opportunity at getonbrd.com.

Tus responsabilidades serán:

  • Recolectar y analizar datos de diversas fuentes para identificar patrones y tendencias. Extraer insights significativos para comprender el rendimiento presente y futuro del negocio.
  • Crear modelos de datos adaptados a distintos proyectos y sectores.
  • Crear y optimizar informes, paneles y cuadros de mando para una presentación efectiva de la información, utilizando herramientas de BI como Tableau, Power BI o QlikView.
  • Identificar oportunidades de mejora de procesos mediante análisis de datos.
  • Mantener y actualizar bases de datos para garantizar su integridad y calidad.
  • Brindar formación y soporte al equipo en el uso de herramientas de Business Intelligence. Colaborar con equipos diversos para crear soluciones integrales. Entender las necesidades del cliente y proponer mejoras y soluciones proactivas.
  • Monitorear modelos de data science y machine learning. Mantener la calidad de datos en flujos de información. Gestionar la seguridad y la escalabilidad de entornos cloud de BI.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, o carrera afín
  • 1 a 2 años de experiencia laboral en:
    • Proyectos BI
    • Herramientas de visualización como PowerBI, Tableau, QikView u otros
    • Soluciones de BI en entornos cloud (ejemplo, Azure y Power BI Service)
    • Fuentes de datos (SQL Server, MySQL, API, Data Lake, etc.)
    • Desarrollo de queries en SQL
    • Desarrollo de modelos de datos para usos analíticos y programación de ETLs
  • Inglés profesional

Algunos deseables no excluyentes:

  • Conocimiento de Python o R
  • Manejo de Big Data en miras de establecer reportería

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1900 - 2500 Full time
Data Engineer (Azure / AWS)
  • Devups
Python SQL Virtualization Amazon Web Services

En Devups, ofrecemos un servicio de staff augmentation que permite incorporar desarrolladores y técnicos a tu empresa sin gestionar reclutamiento, contratación ni costes asociados. Nuestro enfoque flexible facilita añadir, intercambiar o reducir recursos de desarrollo de forma rápida, manteniendo la responsabilidad y reduciendo la fricción operativa. Trabajamos para que nuestros clientes escalen sus capacidades tecnológicas con rapidez y sin la carga de una estructura interna permanente.

Como parte de nuestro equipo, el proyecto de Data Engineering se centrará en diseñar soluciones robustas y escalables para flujos de datos en la nube, colaborando con analítica y ciencia de datos para decisiones basadas en datos de calidad. Buscamos un perfil que contribuya a la modernización de pipelines, data lakes y data warehouses, aplicando buenas prácticas de seguridad, gobernanza y costo-eficiencia para entornos Azure y AWS.

This job is exclusive to getonbrd.com.

Funciones

  • Diseñar y desarrollar pipelines ETL/ELT en entornos cloud (Azure Data Factory, Databricks, Synapse; AWS Glue, Lambda, S3).
  • Integrar, transformar y limpiar grandes volúmenes de datos provenientes de múltiples fuentes para su consumo en analítica y ML.
  • Administrar y optimizar data lakes y data warehouses (Snowflake, Redshift, Synapse, BigQuery según el stack del cliente).
  • Implementar versionado, gobernanza, seguridad y monitoreo continuo de datos; gestionar costos y performance tuning en nube.
  • Colaborar estrechamente con equipos de analítica, ciencia de datos y desarrollo para entregar soluciones centradas en negocio.
  • Participar en prácticas de CI/CD y, si aplica, contenerización con Docker y flujos de orquestación (Airflow, Prefect o similar).

Descripción

Buscamos un Data Engineer con experiencia en el diseño, construcción y optimización de pipelines de datos en la nube ( Azure o AWS ). El objetivo es asegurar el flujo confiable, escalable y seguro de datos desde múltiples fuentes hacia sistemas analíticos o de machine learning, soportando decisiones de negocio basadas en información de calidad. Requisitos clave: +3 años de experiencia en Data Engineering, experiencia en Azure (Data Factory, Databricks, Synapse) o AWS (Glue, Redshift, Lambda, S3), sólidos conocimientos en Python y SQL, modelado de datos, pipelines, APIs y orquestación (Airflow, Prefect o similar), inglés técnico. Se valoran Docker, CI/CD, herramientas de MLOps y certificaciones en Azure o AWS. Ofrecemos un proyecto desafiante con tecnologías cloud y trabajo remoto con horarios flexibles, en un equipo técnico de alto nivel.

Desirable

Experiencia adicional en seguridad de datos, costos y performance tuning en cloud. Conocimientos de seguridad de datos, cumplimiento de normativas y experiencia con herramientas de monitoreo y observabilidad. Capacidad para trabajar de forma autónoma, con buen manejo de prioridades y comunicación clara en entornos multiculturales. Preferible experiencia trabajando en proyectos con impacto directo en negocio y con clientes o equipos remotos.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Vacation over legal Devups gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1800 - 2300 Full time
Business Analyst (Analista de Negocio)
  • Coderslab.io
  • Santiago (Hybrid)
Agile Data Analysis Excel SQL

Coderslab.io es una empresa global con más de 3,000 profesionales y oficinas en América Latina y Estados Unidos. Formarás parte de equipos diversos, con el 1% de los mejores talentos técnicos, trabajando en proyectos innovadores y desafiantes que impulsarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno que promueve el crecimiento y la profesionalización continua. Este rol se enmarca dentro de un proyecto estratégico, con impacto directo en la entrega de valor al negocio y la optimización de procesos a través de una colaboración estrecha entre negocio y tecnología.

This offer is exclusive to getonbrd.com.

Principales Responsabilidades

  • Liderar el levantamiento, análisis y documentación de requerimientos de negocio y técnicos.
  • Documentar procesos, flujos y casos de uso en herramientas colaborativas (Confluence, Jira).
  • Validar la factibilidad técnica y regulatoria de soluciones, considerando arquitectura, seguridad, FinOps y cumplimiento (compliance).
  • Elaborar business cases que justifiquen la inversión, cuantificando beneficios (ROI, TCO, ahorro de costos).
  • Gestionar stakeholders internos y externos, asegurando trazabilidad y comunicación de acuerdos y decisiones.
  • Definir KPIs y métricas de éxito, apoyando la medición continua de resultados.
  • Priorizar el portafolio de iniciativas en función de valor para el negocio, riesgo y costo.
  • Participar en pruebas de aceptación de usuario (UAT) para validar el cumplimiento de requerimientos.
  • Facilitar la comunicación entre negocio, arquitectura, seguridad, desarrollo y proveedores.

Requisitos y perfil

Experiencia demostrable como Business Analyst en proyectos tecnológicos, con experiencia en metodologías ágiles (Scrum/Agile) y tradicionales (Waterfall).

Conocimiento del sector banca y finanzas, y de normativas regulatorias (CMF, PCI DSS, continuidad operativa).

Competencia en modelado de procesos con BPMN y UML. Manejo avanzado de herramientas: Jira, Confluence, MS Project/Visio y herramientas de diagramación (draw.io, Lucidchart).

Conocimientos financieros para análisis de TCO, ROI y comprensión de modelos de FinOps. Comprensión de buenas prácticas de arquitectura y seguridad (DevSecOps, NIST, ISO27001).

Habilidades de análisis de datos (Excel Avanzado; SQL deseable; Power BI/Finout para reporting). Inglés técnico intermedio-avanzado para comunicación con proveedores internacionales. Orientación al cliente y excelentes habilidades de comunicación y gestión de stakeholders.

Requisitos deseables

Experiencia previa en entornos regulatorios o de cumplimiento, familiaridad con controles de seguridad de la información y continuidad operativa. Capacidad para trabajar de forma proactiva en entornos dinámicos, con enfoque en entrega de valor y mejora continua. Habilidades de negociación y facilitación de sesiones con equipos multifuncionales y terceros.

Beneficios

Un entorno de trabajo desafiante donde impactarás directamente en proyectos de alto nivel. Oportunidades de crecimiento y desarrollo profesional. Modalidad de trabajo híbrida que promueve el balance entre vida profesional y personal. Posibilidad de trabajar con un equipo global de alto desempeño en proyectos innovadores y estratégicos. ¿Listo para unirte a Coderslab.io y transformar negocios con tecnología de punta?

APPLY VIA WEB
Gross salary $4000 - 4500 Full time
Data Engineer Senior
  • Improving South America
Python Agile ETL English

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

This company only accepts applications on Get on Board.

Funciones del cargo

  • Diseñar, desarrollar y mantener ETLs y pipelines de datos eficientes y escalables.
  • Implementar y automatizar procesos de ingesta y transformación de datos con Airflow.
  • Realizar debugging, validaciones y optimización de consultas en Snowflake.
  • Colaborar con equipos de datos y negocio para garantizar la calidad y disponibilidad de la información.
  • Implementar buenas prácticas de versionado, monitoreo y documentación de procesos.
  • Dar soporte a incidentes relacionados con cargas de datos y proponer mejoras continuas.

Requerimientos del cargo

Experiencia comprobable en Python y Airflow para la orquestación de pipelines.

Conocimientos sólidos en Snowflake (validación, monitoreo y debugging).

Experiencia con Snowpipe será considerada un plus importante.

Familiaridad con metodologías ágiles y trabajo en entornos colaborativos.

Habilidades analíticas y orientación a la resolución de problemas.

Inglés intermedio-avanzado o avanzado

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Data Scientist
  • Artefact LatAm
Python Analytics Git SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Official source: getonbrd.com.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $4850 - 7000 Full time
Senior Database Engineer/architect
  • Krunchbox
Java Python Analytics SQL

Krunchbox is transforming retail analytics with our next-generation platform (Krunchbox 2.0). We are migrating from 800 hardcoded ETLs to a modern, real-time analytics architecture powered by ClickHouse. This greenfield initiative aims to architect the analytical backbone for 100+ enterprise clients while maintaining and optimizing our existing SQL Server infrastructure during the transition. The Senior Database Engineer/Architect will lead the database transformation and operations across both legacy and modern systems, owning the analytical data layer, and delivering a scalable, multi-tenant ClickHouse architecture alongside ongoing SQL Server maintenance.

© Get on Board.

Key Responsibilities

  • ClickHouse Implementation (New Architecture): take over from initial consulting work to build production ClickHouse system; design and implement multi-tenant architecture with partition isolation; migrate from SQL Server to ClickHouse optimizing for columnar storage; create materialized views for KPI calculations and dashboards; implement data retention policies and TTL strategies; optimize query performance for complex analytical workloads; design backup, recovery, and high-availability strategies.
  • SQL Server Management (Legacy Systems): maintain and optimize existing SQL Server infrastructure during transition; lead ETL modernization from 800 hardcoded processes to automated pipelines; perform database performance tuning and troubleshooting; manage legacy architecture decisions and technical debt; ensure data integrity and availability during migration; optimize existing queries and stored procedures.
  • Leadership & Architecture: provide database leadership across legacy and modern platforms; mentor on SQL and ClickHouse best practices; design migration strategies minimizing downtime and risk; collaborate with development teams on data architecture decisions; create documentation and best practices for a hybrid database environment; lead knowledge transfer and retention efforts during transition.
  • Collaboration & Delivery: work closely with existing team members to ensure continuity and minimize disruption; partner with Event Hubs team for real-time data ingestion; contribute to roadmap and architecture decisions that support scalable analytics for 100M+ rows daily across tenants.

What you’ll bring

Required Qualifications

  • ClickHouse Expertise: 3+ years of production ClickHouse experience; strong background with large-scale migrations from relational to columnar databases; deep understanding of ClickHouse internals (MergeTree engines, partitioning, sharding); expertise in materialized views, projections, and aggregation optimizations; experience with ClickHouse Cloud or managing ClickHouse clusters.
  • SQL Server & Traditional DB Skills: 5+ years of SQL Server production experience in enterprise environments; expert-level SQL programming and query optimization; experience with ETL pipeline design and optimization; database administration including backup, recovery, and performance tuning; experience leading migrations and modernization projects.
  • General Qualifications: proficiency in SQL and ClickHouse-specific extensions; experience with multi-tenant data architectures; strong problem-solving capabilities for complex data challenges; excellent cross-team communication.

Preferred Qualifications

  • Experience with Azure Event Hubs or Kafka integration; knowledge of CDC patterns and real-time data synchronization; retail or e-commerce analytics domain experience; experience with time-series data and IoT workloads; contributions to ClickHouse community or open source; experience with Azure SQL Database and cloud migrations; familiarity with Python/FastAPI for database integration; knowledge of data warehousing and OLAP concepts.

Desirable but not required

Desirable but not required skills:

  • Hands-on experience in modern data platforms and cloud-native architectures; prior leadership role in data platform transformations; experience with multi-region deployments and governance; ability to translate business requirements into scalable data models; passion for scalable performance optimization and data quality.

Benefits

  • Competitive compensation package.
  • Local health coverage (if required)
  • Opportunity to scale and lead a global SaaS platform that solves real-world customer challenges.
  • A direct, impactful role in shaping the future of AI-powered supplier-retailer collaboration.

Fully remote You can work from anywhere in the world.
Health coverage Krunchbox pays or copays health insurance for employees.
Computer provided Krunchbox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Krunchbox gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2300 - 3000 Full time
Data Engineer
  • Coderslab.io
Python SQL Artificial Intelligence Machine Learning

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DATA ENGINEERpara sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

© Get on Board.

Funciones del cargo

  • Desarrollo de ingestas de Datos a GCP
  • Diseñar y construir pipelines de datos robustos para procesos de ingesta, transformación y carga (ETL/ELT).
  • Aplicar buenas prácticas en el manejo de datos: seguridad, gobernanza y cumplimiento.
  • Trabajar con sistemas de procesamiento distribuido para manejar grandes volúmenes de datos
  • Colaborar con equipos interdisciplinarios para impulsar decisiones basadas en datos.
  • Implementar soluciones escalables y eficientes utilizando herramientas de Google Cloud Platform (GCP).

Requerimientos del cargo

- Dominio del lenguaje de programación Python y Lenguaje de Consulta Estructurado (SQL).
- Experiencia trabajando con plataformas de datos en la nube como Snowflake o tecnologías similares.
- Conocimiento de los pipelines de aprendizaje automático y capacidad para apoyar el desarrollo de modelos utilizando herramientas como Amazon SageMaker.
- Familiaridad con procesos de integración de datos como Extraer-Transformar-Cargar (ETL) o Extraer-Cargar-Transformar (ELT).

Condiciones

Nivel de Ingles : Avanzado

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Ingeniero de Datos para Cloud Azure
  • Coderslab.io
Python SQL NoSQL Azure

CodersLab es una empresa dedicada al desarrollo de soluciones dentro del rubro IT y actualmente nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Ingeniero de Datos para Cloud Azure para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Applications are only received at getonbrd.com.

Funciones del cargo

i. Crear productos de datos que ayuden al negocio a lograr sus objetivos con fines analíticos.

ii. Diseñar, diseñar, construir y mantener soluciones de canalización de datos (Data Pipelines) / ETLs batch o streaming.

iii. Construir código para ingestar y actualizar grandes conjuntos de datos en bases de datos relacionales y no relacionales e incluso data No Estructurada.

iv. Aplicar buenas prácticas de Azure DevOps para facilitar el despliegue continuo de nuevas versiones de las canalizaciones y soluciones de datos a través de Pull-Request.

v. Desarrollar Modelos de Datos que permitan gestionar los datos a escala, de manera óptima de cara a grandes volúmenes de datos (Modelo de Datos Data Vault), así como, Modelos de Datos Optimizados para consumos (Modelos de Datos Estrella y Copo de Nieve).

vi. Desarrollar Productos de Datos bajo la Arquitectura Lakehouse y aplicando buenas prácticas de Data Mesh.

vii. Trabajar con las áreas de negocios para comprender los objetivos, recopilar los requisitos iniciales para desarrollar y recomendar soluciones adecuadas.

viii. Participar en la planificación y ejecución de proyectos de ingeniería de datos, coordinando actividades y asegurando el cumplimiento de los plazos.

ix. Colaborar con los científicos de datos para comprender los requisitos específicos de datos necesarios para modelos de inteligencia artificial (IA) y aprendizaje automático (ML).

Requerimientos del cargo

i. Preferente Microsoft Certified: Azure Data Engineer Associate

ii. Preferente Databricks Certified: Data Engineer Associate

iii. Conocimiento avanzado en bases de datos relacionales y lenguaje SQL.

iv. Conocimiento avanzado en bases de datos NoSql.

v. Conocimiento avanzado de procesos y herramientas de ETL, principalmente enfocado a Azure.

vi. Conocimiento en procesamiento de datos batch, streaming, API.

vii. Conocimiento intermedio en programación Python y avanzado en el uso de la biblioteca pyspark.

viii. Conocimientos avanzados en el modelado de datos Data Vault para arquitecturas Data Lakehouse.

ix. Conocimientos avanzados en el modelado de datos Estrella y Copo de Nieve para arquitecturas Data Warehouse.

x. Conocimiento conceptual en gobierno de datos, seguridad de los datos y calidad de los datos.

PROCESO

El proceso de selección consta de una única prueba técnica en vivo con el equipo. No habrá entrevistas previas.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Engineer (Bilingüe)
  • Adecco
  • Santiago (Hybrid)
Java Python Analytics SQL

Somos Adecco Chile, la filial local del líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en el país y una sólida trayectoria apoyando a empresas en su gestión de talento. Adecco Chile está comprometida con ofrecer soluciones integrales y personalizadas, destacándose en áreas como Selección de Personal, Staffing, Payroll Services y Training & Consulting. Nuestro equipo trabaja con altos estándares de calidad, respaldados por la certificación ISO 9001:2015, y con presencia en las principales ciudades del país. Actualmente, buscamos incorporar un Data Engineer para un proyecto estratégico de un cliente que involucra la construcción y optimización de pipelines de datos en cloud, con especial foco en tecnologías Google Cloud Platform y arquitecturas modernas de procesamiento y orquestación.

Exclusive to Get on Board.

Responsabilidades y Funciones Principales

En esta posición, el Data Engineer tendrá como objetivo principal diseñar, implementar y mantener pipelines de datos robustos y escalables para soportar las necesidades de inteligencia de negocio y análisis avanzado. Trabajará estrechamente con equipos de Data Science, BI y desarrollo para asegurar que los flujos de datos estén optimizados y disponibles para los diferentes consumidores.
  • Diseñar y desarrollar pipelines de ingesta, procesamiento y distribución de datos en la nube, utilizando tecnologías de Google Cloud Platform y frameworks open source.
  • Gestionar entornos de desarrollo para asegurar la reproducibilidad y escalabilidad con herramientas como venv, pip y poetry.
  • Implementar orquestadores de workflows como Cloud Composer (Airflow) y plataformas de AI pipelines para automatizar procesos de data engineering.
  • Optimizar el rendimiento de los clusters y pipelines de datos, tanto batch como streaming, aplicando conocimientos avanzados de Apache Spark, Apache Beam o Apache Flink.
  • Aplicar técnicas de feature engineering y gestión avanzada de datos para maximizar el valor analítico.
  • Administrar almacenamiento y bases de datos en GCP, como CloudSQL, BigQuery, Cloud Bigtable, Cloud Spanner y bases de datos vectoriales.
  • Coordinar la integración de microservicios y mensajería en tiempo real mediante Pub/Sub, Kafka y Kubernetes Engine.
  • Asegurar que los procesos CI/CD para pipelines de datos estén correctamente implementados con herramientas como GitHub, Jenkins, GitLab y Terraform.
  • Participar en el diseño y escalabilidad de arquitecturas distribuidas, garantizando la resiliencia y optimización del uso de recursos cloud.

Requisitos y Competencias

Buscamos profesionales con conocimientos sólidos y experiencia comprobable en el área de ingeniería de datos, con capacidad para trabajar en entornos dinámicos y multidisciplinarios. Es fundamental tener un dominio avanzado de la programación, experiencia práctica en la nube, y un amplio entendimiento de las arquitecturas modernas de datos.
  • Dominio del inglés, tanto escrito como verbal, para comunicación efectiva dentro de equipos y documentación técnica.
  • Experiencia avanzada en lenguajes de programación Python y Java, aplicados en el desarrollo y mantenimiento de pipelines de datos.
  • Experiencia práctica en entornos cloud, preferentemente Google Cloud Platform (GCP), utilizando servicios como CloudSQL, BigQuery, Cloud Storage, Pub/Sub, Cloud Functions y Kubernetes Engine.
  • Conocimiento profundo en manejo de contenedores Docker y gestión de entornos virtuales con herramientas como venv, pip y poetry.
  • Amplia experiencia en orquestación de workflows con Airflow, Vertex AI pipelines u otros orquestadores equivalentes.
  • Competencia en técnicas de ingeniería de datos, feature engineering, y frameworks de procesamiento distribuido en Batch y Streaming como Apache Spark, Apache Beam o Apache Flink.
  • Dominio avanzado de SQL y conceptos de streaming (windowing, triggers, late arrival) para estructurar y manipular datos en tiempo real.
  • Experiencia en integración continua y despliegue continuo (CI/CD) con herramientas como GitHub, Jenkins, GitLab, y conocimientos en infraestructura como código usando Terraform.
  • Capacidad para diseñar arquitecturas de datos distribuidas y optimizadas, con comprensión de criterios para selección de opciones de almacenamiento y cómputo.
  • Habilidades analíticas y mentalidad de negocio para interpretar el uso de los datos en procesos de Business Intelligence y Analítica avanzada.

Competencias Deseables

  • Experiencia práctica en sistemas distribuidos, escalables y resilientes.
  • Experiencia laboral en diseño y arquitectura de soluciones de datos end-to-end que incluyan transacciones y múltiples fuentes basadas en APIs.
  • Buen entendimiento de estrategias para la optimización de rendimiento en clusters y pipelines de datos.
  • Exposición a tecnologías GCP para pipelines de datos de extremo a extremo.
  • Experiencia con Kubernetes para orquestación y administración de contenedores a gran escala.
  • Experiencia con bases de datos vectoriales, en particular Qdrant, para casos avanzados de búsqueda y análisis.

¿Qué ofrecemos?

- Un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional.
- Oportunidad de formar parte de un equipo altamente cualificado y profesional en nuestro cliente
- Formación continua para mantenerte actualizado en las tecnologías más modernas.
- Oportunidades claras de crecimiento dentro de la empresa y el sector tecnológico.
- Contrato inicialmente a plazo fijo, con posibilidad de pasar a indefinido con el cliente final.
- Modalidad híbrida de trabajo: 1 días presencial en oficina y 4 días remoto.

APPLY VIA WEB
$$$ Full time
Data Management
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence

Banco Santander Chile es una institución financiera líder en el país, reconocida por su enfoque en ayudar a personas y empresas a progresar mediante soluciones innovadoras y personalizadas. El área de banca comercial se dedica a diseñar y ejecutar estrategias comerciales que optimizan la rentabilidad de la cartera de clientes, utilizando tecnología avanzada para la gestión de datos y el desarrollo de herramientas propias que potencian la toma de decisiones y la experiencia del cliente.

Este equipo trabaja en la constante búsqueda y aplicación de nuevas tecnologías para mejorar las acciones comerciales y asegurar que las iniciativas estén disponibles y sean efectivas en los diferentes canales digitales y presenciales del banco.

This posting is original from the Get on Board platform.

Responsabilidades principales

Como data management, tus responsabilidades incluirán:

  • Participar en la generación de fuentes de información con los distintos atributos y variables calculadas.
  • Automatizar el despliegue de las acciones comerciales con los distintos actores de canales del banco.
  • Recomendar nuevas tecnologías para mejorar el despliegue y la búsqueda de nuevas acciones de las campañas dentro del equipo de inteligencia comercial.
  • Coordinar y desplegar las ofertas y/o campañas a los distintos canales del banco Santander.
  • Automatizar el despliegue de los Journeys (con Salesforce Marketing Cloud y Adobe Experience Platform - AJO) en base a los distinto eventos de nuestros clientes.

Perfil y experiencia requerida

Buscamos profesionales con experiencia en programación orientada a la gestión comercial en el sector financiero o afines. Se valoran conocimientos sólidos en análisis de datos, manejo de bases de datos y desarrollo de software aplicado a procesos comerciales.

Entre las habilidades técnicas y competencias destacan:

  • Experiencia en lenguajes de programación y explotación de datos, de al menos, 1 año.
  • SQL avanzado
  • Python avanzado en análisis de datos
  • Manejo de Tableau
  • Manejo de Power BI
  • Proactividad en la búsqueda constante de innovación tecnológica aplicable a la función.

Se valoran además habilidades blandas como la adaptación al cambio, resiliencia, y pensamiento crítico orientado a la mejora continua.

Conocimientos y experiencia complementarios

Será un plus contar con experiencia previa en bancos o instituciones financieras y manejo de herramientas como SalesForce Marketing Cloud y AJO de Adobe Experience Platform . Conocimientos en metodologías ágiles para proyectos de desarrollo tecnológico también serán bien valorados.

Habilidades adicionales en visualización de datos, para impulsar la innovación en las acciones comerciales serán una ventaja competitiva.

Beneficios y oportunidades de crecimiento

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Ingeniero/a de Datos / AI
  • Devups
Python Agile MySQL PostgreSQL
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Apply directly at getonbrd.com.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL Machine Learning A/B Testing

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

Job source: getonbrd.com.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
APPLY VIA WEB
Gross salary $1,200 Full time
Project Management Assistant
  • WorkBetterNow
Excel Project Manager CRM Growth

WorkBetterNow hires top talent from LATAM and the Caribbean and matches them with United States-based companies. All of our positions are full-time and 100% remote. Our mission is to provide our Certified Professionals (CP) with amazing work opportunities while emphasizing work-life balance and ongoing professional development. As a WorkBetterNow CP, you will work full-time from home, collaborating with US clients to support project management needs, campaigns, and business growth. You’ll be matched with clients based on your skills and the client’s needs, with a role centered on long-term virtual assistance and strategic support to keep your client’s business running smoothly. The program prioritizes self-motivated, ambitious individuals who thrive in a remote, flexible environment and are committed to delivering high-quality results in a US business-hours framework.

Find this job and more on Get on Board.

Key Responsibilities

  • Define project scope, objectives, and deliverables in collaboration with stakeholders and team members.
  • Develop detailed project plans, schedules, budgets, and track progress against milestones and KPIs.
  • Assign tasks and responsibilities to team members, ensuring clarity and accountability.
  • Coordinate project activities and resources, including internal teams, external vendors, and contractors.
  • Monitor risks, issues, dependencies, and implement mitigation strategies as needed.
  • Communicate project status, updates, and changes to stakeholders and senior management.
  • Manage project budgets and expenditures, ensuring adherence to financial guidelines.
  • Support process improvements and documentation to optimize client operations.
  • Maintain a high level of collaboration, professionalism, and customer service in all interactions.

Required Skills and Experience

We are seeking professionals with a minimum of 2 years of recent project management experience and strong administrative capabilities. Ideal candidates are bilingual in Spanish and English (advanced proficiency) and comfortable working from home in a fully remote setup. Experience with common PM tools (as trello, monday.com, Asana, Trello, etc.) and CRM/PM software is preferred. Candidates should demonstrate strong written and spoken English, excellent grammar, and the ability to manage multiple tasks with attention to detail.

Key technical and professional requirements include:

  • At least 2 years of project management and administrative experience.
  • Proficiency with PM tools (Asana, Trello, Monday.com, etc.) and CRM systems.
  • Strong MS Office suite skills (Word, Excel, PowerPoint, Outlook/Gmail).
  • Advanced English communication skills (C1/C2 level preferred).
  • Ability to work 40 hours per week with FT availability and a home-office setup conducive to focus and productivity.
  • Experience with budgeting, scheduling, and stakeholder management.
  • Professional demeanor, strong relationship-building skills, and a growth-oriented mindset.

Technical Requirements

  • Processor: Intel 11th Gen (or equivalent AMD Ryzen 5000 series) for Windows users and M2 for Macs
  • RAM: 16 GB minimum
  • 25 - 50 Mbps Internet Speed (Min)

Elegible countries

  • Argentina
  • Bolivia
  • Brazil
  • Belize
  • Chile
  • Ecuador
  • Colombia
  • El Salvador
  • Nicaragua
  • Dominican Republic
  • Trinidad & Tobago
  • Honduras
  • Mexico
  • Panama
  • Peru
  • Jamaica
  • Paraguay
  • Uruguay
  • Santa Lucia
  • Guyana
  • Suriname
  • Venezuela - if you have a Panama bank account under your name

Desirable Qualifications

While not required, the following are advantageous:

  • Experience with CRM systems, bookkeeping basics, and any formal Project Management education.
  • Social media experience and familiarity with US business hours coordination.
  • Technical literacy and ability to adapt to new tools quickly.

Benefits and Growth

Compensation & Growth

  • 0-3 months: $1,200 USD/month
  • After 3 months: $1,250 USD/month (with Wellness Bonus)
  • After 1 year: $1,340 USD/month
  • After 2 years: $1,480 USD/month
  • After 3 years: $1,540 USD/month
  • After 4 years: $1,600 USD/month
  • Annual raises and company-wide adjustments as we grow together

Work-Life Balance

  • 100% remote work
  • 18 paid vacation days + US federal holidays
  • Paid maternity/paternity leave (up to 2 months with 50% salary coverage after 1 year)

Career Support

  • A dedicated Talent Coordinator to guide you between WorkBetterNow and your client
  • A supportive, people-first environment where your voice matters

Health coverage WorkBetterNow pays or copays health insurance for employees.
Vacation over legal WorkBetterNow gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $3500 - 4100 Full time
Project Manager Senior
  • Magnet
  • Santiago (Hybrid)
Agile Project Manager Project Management Software

Magnet es una empresa de ingeniería enfocada en usar software para entregar soluciones de alta calidad a los problemas de nuestros clientes. Nos gusta entender sus procesos y su negocio para así entregarles el máximo valor posible.

Hace 13 años comenzamos desarrollando pequeñas plataformas de software, pero hoy trabajamos en grandes proyectos, como gestionar las limitaciones operacionales de una aerolínea completa o digitalizar el proceso de migraciones de un país.

Si bien somos bastante exigentes en términos técnicos, ya que tenemos un gran enfoque en la ingeniería, también nos dedicamos a pasarlo bien cada vez que podemos. En ese sentido, nos esforzamos muchísimo en tener una cultura abierta, que le permita a todas/os crecer profesionalmente y sentirse bien en su trabajo, no solo porque entendemos que entregar productos de calidad está directamente relacionado a un equipo feliz, sino porque ese es el tipo de empresa que decidimos formar.

Exclusive to Get on Board.

Funciones del cargo

En Magnet estamos buscando un/a Project Manager Senior para integrarse a nuestro equipo y liderar proyectos de soluciones de software de alto impacto en clientes de distintas industrias.

Buscamos a alguien con mirada estratégica, capacidad de gestión y fuerte orientación al cliente, que pueda hacerse responsable de la entrega de valor de principio a fin de los proyectos. Este rol implica interacción directa con clientes y responsabilidad sobre los resultados del proyecto (no es un rol de seguimiento operativo).

( * ) El rango de renta que ofrecemos en esta publicación está en bruto USD, pero el pago será en CLP.
( * ) Este trabajo es principalmente remoto, pero ocasionalmente tendrás que asistir a reuniones presenciales en las oficinas del cliente (Santiago).

Responsabilidades del cargo

  • Liderar proyectos de soluciones de software end-to-end, asegurando resultados alineados al negocio del cliente.
  • Gestionar la relación con clientes y stakeholders clave, actuando como referente del proyecto.
  • Traducir necesidades de negocio en soluciones tecnológicas viables, escalables y alineadas al contexto del cliente.
  • Definir estrategia, prioridades y roadmap del proyecto.
  • Liderar y alinear equipos multidisciplinarios hacia los objetivos del proyecto.
  • Asumir ownership del proyecto, asegurando el cumplimiento de plazos, la entrega continua de valor y la visibilidad de avances al cliente.
  • Identificar oportunidades de mejora y crecimiento en los proyectos, potenciando la relación con clientes y detectando nuevas oportunidades de negocio.

Requisitos del cargo

  • +5 años de experiencia como Project Manager en proyectos de software end-to-end.
  • Experiencia trabajando directamente con clientes.
  • Conocimiento técnico suficiente para interactuar con equipos de desarrollo.
  • Experiencia en metodologías ágiles.
  • Disponibilidad para trabajar en modalidad híbrida, con posibilidad de asistir ocasionalmente a reuniones presenciales en oficinas de clientes en Santiago.

Requisitos deseables del cargo

  • Experiencia en consultoras TI o servicios.
  • Experiencia siendo desarrollador back-end.
  • Conocimiento en OKRs o métricas de producto.
  • Experiencia en preventa o generación de oportunidades.
  • Conocimiento en proyectos relacionados a IA/LLM.

Beneficios

Nos esforzamos en crear un ambiente de trabajo y una cultura que potencie a nuestro equipo. Tenemos una organización horizontal en la que hay espacio para el aporte de todos al tomar decisiones. Fomentamos una cultura abierta para tener feedback constante por parte del equipo y así mejorar cuando nos equivocamos.

Celebramos los cumpleaños y planificamos actividades de encuentro de equipo durante el año. También el equipo ha creado varios "clubes secretos" que organizan actividades por su cuenta (after office, salidas al cine, etc).

Además:

  • Seguro complementario de salud, dental y catastrófico.
  • Descuentos en farmacias y convenios con instituciones.
  • Computador y herramientas para trabajar.
  • Espacios de capacitación, con acceso a cursos y material.
  • Inducciones para asumir tus responsabilidades.
  • Soporte práctico y teórico, al cual podrás acudir en cualquier momento.
  • Actividades anuales, como el aniversario y el paseíto de fin de año.

APPLY VIA WEB
$$$ Full time
Product Owner
  • 2BRAINS
  • Santiago (Hybrid)
Agile Scrum Kanban Jira
2Brains es una consultora tecnológica que impulsa el crecimiento y la evolución de organizaciones líderes en Latinoamérica. Diseñamos y construimos el futuro digital de nuestros clientes a través de una integración profunda y estratégica de negocio, experiencia y tecnología, convirtiendo desafíos complejos en impacto real.
Hoy, 2Brains forma parte de Acid Labs, uno de los principales grupos de consultoría tech e innovación de la región. Esta adquisición fortalece nuestra propuesta de valor, ampliando nuestra escala, capacidades tecnológicas y presencia regional, y nos permite acompañar a nuestros clientes con soluciones más robustas, ágiles y de alto impacto en todo su ciclo de transformación.

Apply directly at getonbrd.com.

¿Qué actividades estarás realizando como Product Owner?

  • Levantar requerimientos funcionales junto a stakeholders de negocio y equipos técnicos.
  • Definir y priorizar el backlog del producto, asegurando alineación con objetivos estratégicos.
  • Redactar historias de usuario claras, criterios de aceptación y Definition of Done.
  • Acompañar al equipo durante el desarrollo, resolviendo dudas funcionales y validando entregables.
  • Representar la voz del cliente y del negocio en las ceremonias ágiles.
  • Gestionar dependencias y coordinar con áreas internas del banco.
  • Asegurar cumplimiento de roadmap y evolución continua del producto.
  • Participar activamente en eventos Scrum (planning, refinamientos, reviews, retrospectivas).

¿Qué conocimientos buscamos en el/la Product Owner?

  • Gestión de productos digitales bajo metodologías ágiles (Scrum / Kanban).
  • Experiencia sólida como Product Owner (mínimo 5 años).
  • Conocimiento del negocio de créditos, idealmente crédito automotriz.
  • Manejo de herramientas Atlassian, especialmente Jira, para gestión y refinamiento de historias de usuario.
  • Definición de criterios de aceptación y priorización basada en valor.
  • Comprensión del ciclo completo de desarrollo de productos digitales en banca o servicios financieros.
  • Certificaciones ágiles (Scrum, Product Owner) deseables.

¿Qué competencias buscamos en el/la Product Owner?

  • Comunicación efectiva con stakeholders y equipos técnicos.
  • Pensamiento crítico y capacidad analítica para descomponer problemas complejos.
  • Orientación a resultados y foco en generación de valor.
  • Adaptabilidad para trabajar en entornos dinámicos y regulatorios.
  • Conocimiento del negocio y visión estratégica del producto.
  • Liderazgo colaborativo y capacidad de toma de decisiones.

Te ofrecemos:

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.

APPLY VIA WEB
$$$ Full time
Analista de Continuidad de Negocio y Riesgos Tecnológicos
  • Factor IT
  • Santiago (Hybrid)
Cybersecurity Continual improvement process Information Security Communication
En FactorIT, trabajamos en soluciones de Data & Analytics, Transformación Digital e Inteligencia Artificial para clientes regionales en América Latina. El equipo de Continuidad de Negocio y Seguridad de la Información se encarga de identificar y mitigar riesgos operativos y tecnológicos, asegurando la continuidad de servicios críticos en entornos regulados y complejos. El/la Analista apoyará al Coordinador de Continuidad de Negocio en la identificación, análisis y seguimiento de riesgos, colaborando con equipos de tecnología, negocio y proyectos para mantener la resiliencia organizacional y la continuidad de procesos clave. Formará parte de una unidad con foco en buenas prácticas, cumplimiento normativo y mejoras continuas para la continuidad y la seguridad de la información en una empresa en expansión regional.

This job is available on Get on Board.

Principales funciones

  • Identificar y analizar riesgos operativos y tecnológicos que puedan afectar la continuidad del negocio.
  • Elaborar pre-BIA para nuevos procesos o ajustes a procesos críticos impactados por cambios.
  • Dar seguimiento a planes de acción de continuidad, asegurando avance y cierre oportuno.
  • Ayudar en la evaluación de proveedores críticos y específicos, en concordancia con requerimientos normativos y buenas prácticas de Continuidad de Negocio y Seguridad.
  • Colaborar con equipos tecnológicos, de negocio y proyectos para levantar información relevante sobre procesos, dependencias y puntos críticos.
  • Apoyar de manera transversal al área de continuidad y resiliencia operacional en tareas, documentación e iniciativas complementarias.

Requisitos y experiencia

Buscamos un/a profesional con conocimientos básicos o intermedios en Continuidad de Negocio, tecnología, gestión de riesgos operacionales y/o seguridad de la información. Se valora comprensión de entornos tecnológicos, automatización de procesos y dependencia de proveedores. Se considera deseable experiencia en proyectos transversales o entornos regulados. Habilidades de proactividad, trabajo colaborativo, escucha activa, empatía, comunicación respetuosa y excelente organización para seguimiento de compromisos. Se requiere capacidad para trabajar con equipos técnicos y de negocio, adaptabilidad y orientación a resultados en un entorno dinámico y orientado a la mejora continua.

Requisitos deseables

Conocimientos prácticos en procesos de BIA o pre-BIA, familiaridad con marcos de continuidad y gestión de riesgos, y experiencia en entornos con normativas de seguridad de la información. Se valorará experiencia previa en servicios para clientes en sectores regulados y capacidad de análisis de impacto en procesos críticos.

Beneficios y cultura

FactorIT proporciona un ambiente colaborativo, dinámico y con tecnologías de última generación que facilitan el crecimiento profesional constante y la innovación tecnológica.
Nuestro paquete salarial es competitivo y acorde a la experiencia y perfil, complementado con una cultura inclusiva que valora la diversidad, creatividad y el trabajo en equipo.
Al unirte a FactorIT, participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero, dentro de una organización que promueve la innovación y el desarrollo profesional continuo.

APPLY VIA WEB
$$$ Full time
Articulador/a Técnico Operativo/a
  • Factor IT
  • Medellín (Hybrid)
Media Planning Communication Proactivity Microsoft 365

FactorIT es una empresa líder en tecnología y soluciones de datos, con presencia en 8 países de Latinoamérica y en plena expansión. Nuestro equipo impulsa la transformación digital mediante Data & Analytics, Transformación Digital, IA y consultoría estratégica. En este rol, formarás parte de la coordinación técnica y operativa de iniciativas clave de gobernanza tecnológica, aportando trazabilidad y orden para asegurar el cumplimiento de compromisos y la alineación entre áreas técnicas y de negocio.

Trabajarás directamente con comités, mesas de trabajo y espacios técnicos, facilitando la documentación de acuerdos y el seguimiento de iniciativas estratégicas. Serás puente entre equipos técnicos y no técnicos, colaborando para entregar resultados sostenibles y de alto impacto en proyectos regionales dentro del sector financiero y otras industrias.

This job is exclusive to getonbrd.com.

Principales responsabilidades

  • Coordinar comités, mesas de trabajo, sesiones de refinamiento y espacios técnicos.
  • Elaborar actas, minutas, bitácoras y reportes de seguimiento.
  • Gestionar compromisos y asegurar la trazabilidad de acuerdos.
  • Apoyar procesos de gobernanza tecnológica y seguimiento de iniciativas estratégicas.
  • Gestionar información técnica relevante y facilitar la comunicación entre equipos técnicos y áreas de negocio.

Descripción del rol

Buscamos un/a profesional con 3 a 5 años de experiencia coordinando espacios técnicos y operativos, con habilidad para documentar de forma formal (actas, minutas, reportes) y dar seguimiento a compromisos. Debe interactuar efectivamente con equipos técnicos y no técnicos, manteniendo orden y claridad en la gobernanza de proyectos tecnológicos. Se valorará experiencia en gestión documental estructurada, herramientas de productividad (Microsoft 365, Teams, Planner) y conocimiento básico de arquitectura empresarial.

Competencias: organización metódica, comunicación clara y efectiva, proactividad y orientación a resultados. Capacidad para trabajar en entornos dinámicos y multi‑stakeholder, con foco en la entrega de valor y cumplimiento de plazos.

Requisitos deseables

Conocimientos básicos de arquitectura empresarial y técnica. Experiencia previa en ambientes de gobernanza y seguimiento de iniciativas. Habilidad para articular soluciones entre áreas técnicas y de negocio y para gestionar documentación formal de proyectos.

Beneficios y cultura

Modalidad híbrida desde Medellin, con flexibilidad horaria para lograr un balance vida‑laboral. Ambiente colaborativo y dinámico, acceso a tecnologías de última generación y oportunidades de crecimiento profesional. Paquete salarial competitivo acorde a experiencia, y cultura inclusiva que valora la diversidad, creatividad y el trabajo en equipo. Participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región, en un entorno que promueve innovación y desarrollo continuo.

APPLY VIA WEB
$$$ Full time
Product Business Analyst
  • LeytonMedia
  • Santiago (Hybrid)
Excel Marketing SQL Business Intelligence

En LeytonMedia impulsamos la transformación digital desde 1994, ayudando a nuestros clientes a concretar metas y objetivos mediante un ecosistema ágil y un equipo talentoso.

Buscamos un BA proactivo para unirse al equipo, actuando como mano derecha del Product Owner, traduciendo necesidades de negocio en requerimientos técnicos claros para la célula de desarrollo y garantizando la calidad final del producto mediante pruebas de usuario (UAT). Participarás en pruebas de usabilidad con clientes y en el análisis de tendencias para mejorar el journey del producto y la toma de decisiones.

This job is available on Get on Board.

Funciones

  • Realización de análisis exploratorio de datos. Elaboración de dashboards, reportes y presentaciones ejecutivas.
  • Comunicación de hallazgos, propuestas de mejora y soluciones basadas en información confiable y de calidad. Participación en benchmark de mercado. Análisis de requerimientos de usuarios y evaluación de tendencias.
  • Gestión de Requerimientos: Refinamiento del Backlog, colaboración con el PO en la redacción de Historias de Usuario con criterios de aceptación detallados y testeables. Puente entre el PO y el equipo de desarrollo, documentando flujos de datos y reglas de negocio.
  • Documentación: mantener Confluence/Jira actualizados.
  • Aseguramiento de Calidad y UAT: facilitar planes de prueba, liderar sesiones de validación y realizar pruebas de humo en ambientes de prueba.

Requerimientos del cargo

  • Estudios en Ingeniería Civil, Comercial u otra afín.
  • Ideal contar con certificaciones de BA o PO.
  • Buscamos un Business Analyst con 3-4 años de experiencia en sector financiero (Banca o Fintech) capaz de traducir requerimientos de negocio en soluciones técnicas claras. S
  • Dominio de Excel, PowerPoint, SQL y herramientas de visualización (Tableau u otras).
  • Se valorará lectura de diagramas TI y conceptos de marketing digital, además de un nivel de inglés deseable.
  • El/la candidato/a trabajará en un entorno colaborativo, con foco en la calidad, la mejora continua y la experiencia del cliente.

Beneficios

  • Jornada laboral reducida que favorece un balance saludable entre la vida personal y profesional.
  • Programas integrales de bienestar dirigidos al cuidado físico y mental del equipo.
  • Acceso a una plataforma de formación con más de 2,000 cursos para potenciar el desarrollo profesional continuo.
  • Bonificación destinada a estudios y capacitaciones adicionales para incentivar el crecimiento académico.
  • Beneficios sociales como la afiliación a Caja de Compensación Los Andes, que aportan estabilidad y protección social.

En LeytonMedia promovemos un entorno cercano, colaborativo y transparente, donde se potencia el talento mediante capacitación, coaching y mentorías, alineando el crecimiento profesional con los objetivos personales de cada colaborador.

APPLY VIA WEB
$$$ Full time
Product Owner – Canales Digitales
  • BICE VIDA
  • Santiago (Hybrid)
UX Agile Data Analysis Business Intelligence

En BICE VIDA somos líderes en el rubro de las aseguradoras y queremos satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos apostando por la transformación digital, buscando nuevas formas de realizar el negocio, para mantenernos vigente y responder a los constantes cambios que el entorno nos exige.

¡Únete a un equipo apasionado y altamente motivado por brindar soluciones innovadoras a sus clientes!

“Esta oferta se enmarca en la ley 21.015 que incentiva la inclusión laboral de personas en situación de discapacidad. Aquellos interesados, contarán con el apoyo de la Compañía para realizar un proceso inclusivo y en igualdad de condiciones. BICE Vida se compromete a resguardar la información que postulantes en situación de discapacidad proporcionen de manera voluntaria”.

Apply to this job through Get on Board.

🎯¿Qué buscamos?

En BICE VIDA somos líderes en el rubro de seguros y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Buscamos un Product Owner para sumarse a la Tribu de Canales Digitales. En la tribu trabajamos con equipos multidisciplinarios bajo metodologías ágiles, diseñando y evolucionando productos digitales que generen valor real para clientes y negocio.

El rol está pensado para personas con experiencia en diseño y desarrollo de productos o servicios digitales, capaces de construir visión de producto a nivel de equipo, liderar la ejecución y tomar decisiones basadas en impacto, valor y datos.

El Product Owner trabajará en estrecha relación con equipos comerciales, operacionales y tecnológicos, liderando una célula digital y asegurando alineación entre la estrategia del negocio y la ejecución del equipo.

Siendo Product Owner deberás:

  • Definir, priorizar y gestionar el backlog del producto.
  • Crear historias de usuario, criterios de aceptación y reglas de negocio.
  • Liderar ceremonias ágiles del equipo (daily, refinamiento, planning, review y retrospectiva).
  • Gestionar dependencias y riesgos que puedan impactar la entrega de valor.
  • Interactuar activamente con stakeholders para identificar oportunidades y transformar insights en iniciativas concretas.
  • Asegurar la priorización y toma de decisiones basada en datos e impacto.
  • Definir y hacer seguimiento de KPI y OKR del producto.
  • Velar por la calidad del producto mediante validación funcional continua.
  • Alinear al equipo y stakeholders en torno a la visión y objetivos del producto.

🧠 ¿Qué necesitamos?

  • Formación en Ingeniería Industrial, TI o carrera afín.
  • Al menos 2 años de experiencia como Product Owner, Product Manager o roles similares.
  • Conocimiento sólido de productos digitales e industria (bancaria, seguros o digital).
  • Experiencia en desarrollo de sitios web y aplicaciones móviles.
  • Experiencia trabajando con metodologías ágiles (Scrum, SAFe, Kanban).
  • Entendimiento tecnológico a alto nivel (APIs, integraciones, arquitectura básica, ciberseguridad).
  • Manejo de métricas de negocio y producto digital (KPIs, OKR).
  • Capacidad para desarrollar análisis complejos apoyándose en herramientas como Tableau, Power BI u otras.
  • Trabajo colaborativo con equipos técnicos (developers, QA) y UX.
  • Manejo de herramientas como Jira, Confluence, Mural u otras similares.

Competencias clave del rol

  • Pensamiento crítico y analítico sólido, capaz de construir visión de producto a nivel equipo.
  • Alta capacidad de priorización y toma de decisiones informadas basadas en valor.
  • Gestión activa de dependencias y riesgos.
  • Comunicación persuasiva y storytelling para influir y alinear stakeholders.
  • Capacidad de negociación y generación de acuerdos entre distintas áreas.
  • Autonomía y orientación a resultados.

✨Sumarás puntos si cuentas con:

Certificaciones ágiles (Scrum, SAFe, Kanban).

¿Cómo es trabajar en BICE Vida?

  • 🏥 Seguro complementario de salud, dental y de vida, más seguro catastrófico (para ti y tus cargas legales).
  • 🎁 Bonos en UF según la época del año y tu antigüedad en la compañía.
  • ⏰ Salida anticipada los viernes a las 14:00 hrs para ayudarte a equilibrar tu vida laboral y personal.
  • 👟 Dress code semi-formal, priorizamos la comodidad.
  • 🍽️ Almuerzo gratuito en el casino corporativo (sí, también hay día “no-fit” 😄).
  • 📚 Capacitaciones constantes para impulsar tu desarrollo profesional.
  • 📍 Casa Matriz ubicada en Providencia, cercana a estación de Metro Pedro de Valdivia.
  • 🚲 Bicicleteros disponibles para que vengas en bici sin preocupaciones.

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Jefe Planificación y Proyectos
  • Agrosuper
  • Santiago (In-office)
Project Manager Power BI Planning Data Visualization

Empresa: Agrosuper es una compañía líder en la producción de alimentos para el mercado local e internacional, con más de 13.000 personas y presencia en Chile y en mercados globales. Este rol apoya la Planta Elaboradora de Alimentos Doñihue en la Región Metropolitana. El objetivo del cargo es coordinar y supervisar la estrategia del área de planificación para garantizar el cumplimiento de mantenciones preventivas, predictivas y proactivas, la gestión de proyectos y la mejora continua de los procesos de mantenimiento mediante análisis de confiabilidad. El/la Jefe de Planificación y Proyectos trabajará estrechamente con equipos de ingeniería, operaciones y mantenimiento para alinear proyectos con las metas de producción, confiabilidad y eficiencia.

Apply to this job without intermediaries on Get on Board.

Principales funciones

  • Coordinar la estrategia del área de planificación, garantizando el cumplimiento de mantenciones preventivas, predictivas y la gestión de proyectos industriales.
  • Gestionar carta Gantt y asegurar la ejecución de actividades críticas de proyectos en la planta.
  • Dirigir y desarrollar equipos de trabajo, asignando tareas, seguimiento de hitos y evaluación de resultados.
  • Participar en la planificación de inversiones y proyectos de mejora continua del proceso de mantenimiento, con foco en confiabilidad y disponibilidad.
  • Colaborar con proveedores y terceros para asegurar calidad, seguridad y cumplimiento normativo.

Requisitos y perfil

Buscamos profesionales con formación en Ingeniería Civil Industrial, Ingeniería Civil Mecánica o carreras afines. Se valorará experiencia en obras civiles, montajes eléctricos y sistemas de refrigeración, así como manejo de herramientas de gestión de proyectos y ofimática avanzada. El/la candidato/a ideal deberá demostrar capacidad de liderazgo de equipos, pensamiento analítico, orientación a resultados y habilidad para gestionar múltiples proyectos de manera simultánea. Se valorará dominio de AutoCAD, Microsoft Project y Power BI, así como experiencia en gestión de mantenimientos y disponibilidad para trabajar en planta y en la región.

Perfil deseable

Experiencia comprobable liderando proyectos de ingeniería y operaciones en la industria de alimentos o procesos. Conocimientos en confiabilidad, mantenimiento centrado en confiabilidad (RCM) y gestión de activos empresariales (EAM). Habilidades de comunicación efectiva, colaboración interfuncional y capacidad para influir en decisiones de alto impacto. Se busca persona con enfoque de crecimiento, inclusiva y orientada a la mejora continua.

Beneficios y desarrollo

La empresa ofrece planes de crecimiento y desarrollo profesional, capacitaciones y becas de estudio, convenios con diversas instituciones y bonos por desempeño. Valoramos la inclusión y la diversidad, con apertura a colaborar con personas con discapacidad. Formarás parte de una organización sólida y con un propósito claro: alimentar lo bueno de la vida, trabajando en un entorno que fomenta el crecimiento, la colaboración y la calidad de vida.

Outdoors The premises have outdoor spaces such as parks or terraces.
Wellness program Agrosuper offers or subsidies mental and/or physical health activities.
Life insurance Agrosuper pays or copays life insurance for employees.
Meals provided Agrosuper provides free lunch and/or other kinds of meals.
Digital library Access to digital books or subscriptions.
Health coverage Agrosuper pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Free car parking You can park your car for free at the premises.
Computer provided Agrosuper provides a computer for your work.
Education stipend Agrosuper covers some educational expenses related to the position.
Fitness subsidies Agrosuper offers stipends for sports or fitness programs.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Agrosuper covers tickets and/or some expenses for conferences related to the position.
Shopping discounts Agrosuper provides some discounts or deals in certain stores.
Beverages and snacks Agrosuper offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $1800 - 3000 Full time
Jefe de Proyecto
  • Microsystem
  • Santiago (Hybrid)
Python Agile Virtualization Project Manager

🚀 ¡En Microsystem Lab buscamos a nuestro próximo Jefe de Proyectos! 💡
Somos el partner tecnológico que las empresas necesitan para estar dentro de la vanguardia tecnológica. Co-creamos soluciones donde la IA, el Desarrollo de Software y los Datos convergen.

Buscamos a un Jefe de Proyecto que sea el pilar de comunicación de nuestros proyectos. Necesitamos a alguien expresivo, que entienda que una comunicación clara y constante es el pilar fundamental para la realización de un buen proyecto. Le tiene que apasionar la computación, debe entender la lógica técnica de lo que construimos (desde arquitecturas multi-agentes y RAGs hasta Data Lakehouses en AWS) y traducir este mundo complejo tanto al equipo como al cliente.

Si te apasiona estar "sobre la ola" de la vanguardia tecnológica, estás orientado a compromisos y sabes mover las piezas necesarias para que el equipo llegue a la meta en la fecha pactada, ¡queremos que seas parte de nuestro equipo! 💪

© getonbrd.com.

Responsabilidades del Puesto

  1. *Comunicación como Eje Central *🗣️: Liderar la comunicación del proyecto de forma expresiva y constante, asegurando que el cliente y el equipo estén siempre alineados y sin puntos ciegos.
  2. *Gestión de Compromisos y "Enforcer" de Plazos *⏱️: Velar por el cumplimiento de las fechas. Tu misión es asegurar que los hitos se alcancen, empujando al equipo con liderazgo para cumplir los compromisos adquiridos.
  3. *Gestión Híbrida de Proyectos* 🔄: Orquestar el trabajo usando metodologías ágiles para el desarrollo interno y metodologías convencionales para el control de hitos y reportabilidad estratégica hacia el cliente.
  4. *Traducción Técnica y Consultoría* 💻: Entender qué estamos haciendo a nivel de código y arquitectura para gestionar expectativas reales y proponer soluciones valiosas.
  5. *Gestión de Stakeholders (Cliente + Equipo)* 🤝: Actuar como el puente de confianza, gestionando la presión externa y motivando al equipo técnico hacia la excelencia en el delivery.

Funciones del cargo

Requisitos Técnicos (Hard Skills)

  • Formación: Ingeniería en Computación, Civil, Industrial o carrera afín con fuerte base tecnológica.
  • Experiencia: 2+ años gestionando proyectos de software, IA o datos.
  • Pasión por la Computación: Debes conocer conceptos como GenIA, RAGs, Python, Cloud (AWS) y pipelines de datos. No programarás, pero sí debes entender y disfrutar la conversación técnica.
  • Metodologías: Dominio de Scrum/Kanban y gestión tradicional (Gantt, ruta crítica).
  • Herramientas: Jira, Project y sistemas a fines.

Requisitos Interpersonales (Soft Skills)

  • Comunicador Nato: Capacidad expresiva sobresaliente, asertividad y proactividad.
  • Orientación al Delivery: Enfoque en el cumplimiento de fechas y resultados de calidad.
  • Liderazgo de Ejecución: Capacidad para tomar el mando, inspirar responsabilidad en el equipo y que se orienten a los resultados sin perder la colaboración.

Suma puntos

  • Certificaciones Oficiales: PMP (PMI), CSM (Certified Scrum Master) o certificaciones en metodologías ágiles a escala.
  • Dominio de CRISP-DM: Entender el ciclo de vida de un proyecto de ciencia de datos es un plus gigante para hablar el mismo idioma que el equipo Lab.
  • Inglés Intermedio/Avanzado: Capacidad para leer documentación técnica y, eventualmente, interactuar con partners o clientes internacionales.
  • Experiencia en Consultoría: Haber trabajado directamente con clientes externos de industrias como Banca, Retail, Pesca o Salud (nuestros sectores fuertes).
  • Manejo de herramientas de visualización: Si sabes moverte en Power BI, Tableau o Looker Studio para presentar resultados, nos encantará.
  • Conocimiento en Nube: Estar familiarizado con el ecosistema AWS (nuestra base) o Azure.

Lo Que Ofrecemos

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Shopping discounts Microsystem provides some discounts or deals in certain stores.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Consultor Senior de Estrategia
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Excel Ingeniero Comercial English Analytical Skills

BNP Paribas Cardif, líder global en seguros con presencia en más de 70 países, con la misión de hacer los seguros más accesibles, justos y valiosos.
Te invitamos a postular con nosotros para la posición de Consultor Senior de Estrategia para incorporarse a la gerencia de Estrategia, Operaciones y Técnologia, del equipo regional LATAM.

Dentro de sus principales funciones se encuentra la realización de estudios de consultoría interna, desarrollo de casos de negocio y coordinación de equipos multiculturales para habilitar decisiones a nivel ejecutivo. El objetivo es alinear iniciativas de transformación con la estrategia regional y apoyar la toma de decisiones en comités regionales y locales, asegurando una ejecución eficaz y transparente de los proyectos.

Exclusive to Get on Board.

Funciones principales

  • Participar en el diseño, análisis y ejecución de estudios estratégicos (tipo consultoría interna) que habiliten la toma de decisiones en niveles ejecutivos.
  • Liderar o apoyar la elaboración de casos de negocio para iniciativas o proyectos de transformación.
  • Coordinar equipos multidisciplinarios y multiculturales en diferentes países para garantizar alineamiento estratégico y avance de proyectos.
  • Acompañar y coordinar procesos de monitoreo y steering de programas estratégicos a nivel regional.
  • Preparar y presentar materiales ejecutivos para comités regionales y locales, adaptando el mensaje a audiencias diversas (operativos a top management).
  • Actuar como interlocutor confiable y articulado ante líderes de alto nivel.

Requisitos y perfil buscado

Formación: Ingeniero Comercial, Ingeniero Industrial, Administración de empresas o carreras afines.
Experiencia: más de 8 años en temas de estrategia, transformación y/o consultoría.
Conocimientos y habilidades: manejo de PC a nivel avanzado, Excel avanzado, presentación efectiva (PowerPoint avanzado), capacidades analíticas y comunicativas de alto nivel, inglés fluido/avanzado, alto sentido de ética, probidad y discreción, rigurosidad y meticulosidad, autonomía y proactividad.

Perfil deseable

Experiencia previa en proyectos de transformación en el sector de seguros o servicios financieros, capacidad de trabajar en entornos dinámicos y multiculturales, habilidades de gestión de stakeholders y experiencia en preparación de presentaciones ante comités ejecutivos. Se valorará orientaciones analíticas sólidas, pensamiento estratégico y enfoque orientado a resultados.

Beneficios y cultura

¿Te sumas a la revolución de la industria del seguro?
Esperamos tu postulación ¡seguro y con todo!
“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

Wellness program BNP Paribas Cardif offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Internal talks BNP Paribas Cardif offers space for internal talks or presentations during working hours.
Life insurance BNP Paribas Cardif pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage BNP Paribas Cardif pays or copays health insurance for employees.
Dental insurance BNP Paribas Cardif pays or copays dental insurance for employees.
Computer provided BNP Paribas Cardif provides a computer for your work.
Fitness subsidies BNP Paribas Cardif offers stipends for sports or fitness programs.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts BNP Paribas Cardif provides some discounts or deals in certain stores.
Vacation over legal BNP Paribas Cardif gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal BNP Paribas Cardif offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
Project Manager de Tecnología
  • Factor IT
  • Medellín (Hybrid)
Agile Excel Business Intelligence Virtualization

FactorIT es una empresa líder en tecnología y soluciones de datos con presencia en 8 países de Latinoamérica. Nos encontramos en plena expansión, enfocándonos en Data & Analytics, Transformación Digital e IA para grandes clientes, con proyectos de Modernización Digital y Analítica de Datos para el sector financiero y otras industrias. Buscamos un Project Manager que dirija iniciativas estratégicas, gestionando alcance, presupuesto y relaciones con stakeholders para entregar valor, rentabilidad y resultados medibles. El rol reporta a la Gerencia de Operaciones y se desarrollará en un entorno dinámico y colaborativo, con foco en entregar soluciones tecnológicas de alto impacto y un camino claro hacia la transformación digital.

This job offer is on Get on Board.

Funciones principales

  • Gestión Integral del Proyecto (E2E): Liderar la planificación, ejecución y cierre de proyectos de Modernización Digital y Analítica de Datos, asegurando hitos técnicos y estándares de calidad.
  • Gestión Financiera y de Alcance: Responsable de la rentabilidad del proyecto; controlar presupuesto, gestionar EAC semanalmente y blindar el proyecto ante cambios para mantener el margen.
  • Relaciones con el Cliente: Ser la cara visible ante stakeholders; gestionar expectativas, negociar plazos o cambios de alcance y traducir requerimientos de negocio en soluciones técnicas viables.
  • Liderazgo de Equipos Técnicos: Dirigir squads multidisciplinarios (Ingenieros de Datos, Arquitectos Cloud, Desarrolladores), desbloquear impedimentos y asegurar ritmo de entrega (Velocity).
  • Visión Comercial: Identificar oportunidades de mejora y necesidades para upselling de servicios de FactorIT dentro del cliente actual.

Requisitos y perfil buscado

Experiencia General: 2 a 4 años en gestión de proyectos de tecnología (IT).

Experiencia específica en Ingeniería de Datos, BI, Migración a Nube o Desarrollo de Software (al menos 2 años).

Conocimiento técnico en ecosistemas de nube (Azure, AWS o GCP). Capacidad para entender arquitecturas de alto nivel.

Herramientas: Jira, MS Project, Smartsheet o Excel avanzado.

Metodologías: certificación o experiencia como Scrum Master o en entornos ágiles.

Idioma: inglés intermedio-avanzado (lectura técnica y reuniones).

Habilidades blandas: negociación asertiva, comunicación técnica con negocio, orientación a resultados y rentabilidad, manejo de crisis y liderazgo de servicio. Capacidad para traducir problemas técnicos en impactos de negocio, mantener EBITDA del proyecto y motivar al equipo ante desafíos.

Deseables

Certificaciones: PMP ( PMI ), Azure Fundamentals AZ-900, DP-900. Conocimientos: Microsoft Fabric, Databricks, Synapse o Power BI.

Formación: Ingeniería Civil Informática/Industrial o Sistemas. Experiencia en consultoría y/o trabajar con firmas de servicios de TI gestionando clientes externos y facturación.

Beneficios

Modalidad de trabajo híbrida desde Medellín, con flexibilidad horaria para un balance entre vida personal y profesional. Ambiente colaborativo, dinámico y con tecnologías de última generación que favorecen el crecimiento profesional e innovación tecnológica. Paquete salarial competitivo acorde a experiencia, con cultura inclusiva que valora diversidad, creatividad y trabajo en equipo. Participación en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero, dentro de una organización que promueve innovación y desarrollo profesional continuo.

APPLY VIA WEB
$$$ Full time
Business Analyst
  • WiTi
  • Santiago (Hybrid)
Analytics Agile Excel SQL

WiTi es una empresa dedicada al desarrollo de software y soluciones tecnológicas, especializada en la integración de sistemas y desarrollos móviles.
Buscamos un Business Analyst con experiencia en productos digitales para un proyecto desafiante en la industria automotriz. El rol ofrece la oportunidad de trabajar desde Santiago (Chile) en modalidad híbrida, colaborando en un equipo multidisciplinario que diseña soluciones digitales para mejorar la experiencia de miles de clientes.
Formarás parte de una célula ágil que conecta negocio y tecnología, promoviendo una experiencia omnicanal coherente para agendamiento de servicios, beneficios, programas de fidelización, financiamiento y seguimiento de vehículos. El proyecto se centra en evolucionar el ecosistema digital de relación con clientes y en aportar valor en ventas y postventa a través de soluciones de alto impacto.

Apply directly from Get on Board.

Funciones Principales

  • Levantar y analizar requerimientos de negocio junto a stakeholders de producto, sucursales y áreas comerciales.
  • Traducir necesidades en user stories claras, criterios de aceptación y flujos de procesos (BPMN) para el equipo de desarrollo.
  • Gestionar y priorizar el backlog en conjunto con Product Owner, equilibrando impacto al cliente, factibilidad técnica y objetivos del negocio.
  • Facilitar refinamientos, talleres y ceremonias ágiles, asegurando alineamiento entre negocio y equipo técnico.
  • Participar en la definición y seguimiento de KPIs del producto (adopción, uso de funcionalidades, conversión, NPS, etc.).
  • Acompañar pruebas funcionales, validaciones con usuarios internos y lanzamientos incrementales de mejoras.

Requisitos y Perfil

1-3 años de experiencia como BA para productos digitales, idealmente en e-commerce o retail. Dominio de Jira, Confluence, Miro/Lucidchart; Excel/Sheets avanzado; capacidad para crear y documentar user stories y flujos BPMN. Experiencia en entornos ágiles (Scrum/Kanban) y definición de métricas/KPIs. Inglés intermedio (deseable para documentación y reuniones).

Se valoran: antecedentes en programs de loyalty o apps retail, conocimientos en analytics, SQL básico o capacidad de colaborar con equipos de datos. Buscamos perfil con fuerte orientación a resultados, autonomía y habilidades de comunicación con múltiples áreas.

Habilidades Deseables

Antecedentes en loyalty programs o apps retail. Conocimientos en analytics, SQL básico o colaboración con data teams. Fuerte orientación a resultados, autonomía y habilidades de comunicación con múltiples áreas.

Beneficios

En WiTi ofrecemos un entorno de trabajo 100% remoto, con gran flexibilidad y autonomía. Fomentamos una cultura de aprendizaje y colaboración. Entre los beneficios se incluyen:

  • Plan de carrera personalizado para desarrollo profesional.
  • Certificaciones para continuar creciendo en tu carrera.
  • Cursos de idiomas para desarrollo personal y profesional.

Además, brindamos una cultura de innovación y aprendizaje continuo, y un equipo multidisciplinario para impulsar tu crecimiento.

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Product Manager Engagement & Growth
  • Niuro
  • Santiago, Valparaíso or Concón (Hybrid)
SQL Business Intelligence Sales Growth

Niuro está buscando liderar la evolución de una plataforma de telemedicina para convertir una base de más de 40,000 usuarios en un ecosistema de salud integral.

Nos enfocamos en transformar un modelo transaccional en una experiencia de salud centrada en el paciente, diseñando estrategias de crecimiento y retención desde cero, con enfoque en Product-Led Growth, análisis de datos y soluciones no-code. El rol reporta a la dirección de Producto/Creación de crecimiento y se orienta a convertir interacciones individuales en relaciones de salud de por vida, ampliando alianzas y elevando el valor de la plataforma para usuarios y socios B2B.

La posición implica prototipar, medir y escalar flujos de onboarding, intervenciones de retención y programas de valor para estrechar el vínculo con usuarios, clínicas y laboratorios, manteniendo un ritmo ágil y datos como guía principal.

Exclusive to Get on Board.

Funciones principales

  • Arquitecto de Retención: será el responsable absoluto de la estrategia de retención de punta a punta, identificando patrones de churn mediante SQL y diseñando intervenciones de alto impacto para maximizar el valor de vida del cliente (LTV).
  • Maximizar el Impacto (LTV): diseñarás engagement loops y rutas de salud personalizadas que transformen una consulta aislada en una relación de salud de por vida.
  • Innovación Ágil (No-Code): prototiparás flujos de onboarding y nuevas funcionalidades en Webflow, Bubble o Softr; validarás hipótesis en días para decidir qué escalar a nivel de producto.
  • Alianzas Estratégicas: diseñarás programas B2B que expandan el valor de la plataforma, integrando servicios como análisis de laboratorio y nuevos puntos de contacto.
  • Cultura de Datos: construirás la infraestructura de medición (Metabase, KPIs, dashboards) que guiará las decisiones de todo el equipo.

Descripción

Buscamos un líder con mentalidad de builder, con más de 5 años de experiencia en Product Management, Growth o roles similares, que posea un resultado probado en métricas de retención. Se requiere autonomía en SQL y visualización de datos (Metabase/Tableau) y experiencia real lanzando productos o experimentos con herramientas No-Code. El candidato debe tener visión de negocio para estructurar acuerdos B2B que aporten valor al usuario final y una mentalidad de Experimentación orientada a la iteración rápida basada en evidencia de datos. Se valorará experiencia en HealthTech, experiencia como exfundador y/o gestión de engagement de apps móviles, y capacidad para gestionar ventas B2B y alianzas estratégicas en el ámbito de telemedicina.

Conocimientos Deseables

Experiencia en HealthTech, antecedentes como ex-fundador, experiencia en engagement de aplicaciones móviles y ventas B2B. Habilidad para navegar entornos regulados y enfoque orientado a resultados medibles. Capacidad para trabajar en un entorno híbrido y colaborar con equipos globales, manteniendo foco en el paciente y en la calidad del servicio.

Beneficios

Niuro ofrece un modelo de trabajo híbrido diseñado para potenciar el impacto de cada rol. Combinamos la flexibilidad del trabajo remoto con la presencialidad clave para presentaciones de alto nivel, sesiones de estrategia y eventos con clientes. Fomentamos el desarrollo profesional mediante programas de capacitación continua y oportunidades de liderazgo. Tras la fase inicial del contrato, existe un alto potencial de transición a roles permanentes y colaboraciones a largo plazo. Unirse a Niuro significa formar parte de una comunidad dedicada a la excelencia, con una infraestructura sólida que te permite enfocarte en resultados estratégicos sin distracciones.

APPLY VIA WEB