Skills relacionados:
Gross salary $6000 - 8500 Full time
Python Go CRM Golang

MacrosFirst is building the world’s leading nutrition app to help people live healthier lives and achieve fitness goals through a balanced diet. We’re bootstrapped, profitable, and focused on scaling to eight-figure ARR while keeping the team small and nimble.

You’ll join a team of 6 engineers and work closely with the co-founders, design, marketing, and customers to craft features that move the needle for our engaged user base. The project slate centers on an AI-powered Nutrition Copilot, a multi-agent system using LLMs for real-time nutritional coaching, plus ongoing Flutter-based frontend efforts and backend evolution.

This job is original from Get on Board.

What you’ll tackle

  • Architect and scale our AI-driven "Nutrition Copilot" – You will lead the development of an intelligent, multi-agent system that utilizes LLMs to provide real-time nutritional coaching. This includes building the conversational UI, implementing a robust Tool Manager for RAG against our food and user databases, and engineering the backend orchestration layer that handles complex tasks. It’s a really fun and ambitious project.
  • Flutter development – Ship new features and maintain our existing codebase serving iOS, Android and Web, all written in Flutter and following atomic design with reusable components.
  • Backend migration – Steer our migration from FastAPI to golang, starting with building a new backend for a brand new product offering. An exciting blank slate to make your mark.
  • Automation – Explore and experiment with AI tools, custom-built internal software, and other automations to amplify the company’s effectiveness.

Who we’re looking for

  • You have a strong software engineering background, with at least 5 years of experience writing production code across frontend and backend.
  • You have experience with AI orchestration frameworks (e.g., LangChain, CrewAI, or building custom agentic logic)
  • You have a strong understanding of RAG and optimizing LLM performance through tool-calling and prompt engineering.
  • You have experience building high-concurrency backends to support real-time AI interactions and data streaming.
  • Advanced written and spoken English (C1)
  • You thrive in fast paced, nimble startup environments.
  • You have a demonstrable track record of shipping.
  • You have an entrepreneurial mindset, whether you’ve created your own products, worked at startups, or have dreams to do so.
  • You're hungry for impact and ownership, and you enjoy wearing multiple hats and learning new things.
  • You consider yourself a generalist, not tied to any one technology, but excited to tackle new technical challenges.
  • You have an appreciation and passion for great design, whether product, brand, or UI.
  • You feel confident making decisions amid ambiguity.

Nice-to-have

  • You’ve launched your own app, product, or other project.
  • You’ve worked on subscription apps before, and words like “RevenueCat”, “paywall test”, and “MMP” mean something to you.
  • You have some proficiency in design and feel comfortable tweaking Figma mockups and making design decisions when specs aren’t fully complete.
  • You’ve integrated AI effectively into your workflows and are tuned into the latest AI tooling.
  • You’ve worked on AI consumer products.

Why MacrosFirst

  • Competitive salary
  • Product-led. Both founders come from product management and engineering, each with 15 years of experience, so you’ll be in good company.
  • No bureaucracy. You’ll be making top-level decisions alongside the founders every day.
  • Maximum impact. You’ll be taking the lead on an app with over 1 million downloads and 25,000 subscribers, and you’ll help drive double or triple-digit % growth.
  • High growth potential. We're aiming for 10x (100x!) growth. You’ll directly contribute to that.
  • Positive mission. Our goal is to improve people’s wellness through nutrition. We hear stories every week of the life changing impact MacrosFirst has had on our community’s health, confidence, sports performance, mental health, and overall wellbeing.

Fully remote You can work from anywhere in the world.
$$$ Full time
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Find this vacancy on Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
Gross salary $2000 - 3000 Full time
AI Engineer
  • MAS Analytics
  • Puerto Montt, Santiago or Puerto Varas (Hybrid)
JavaScript Python Analytics Git

En MAS Analytics, somos una consultora de datos e IA que conecta desafíos de negocio con datos y tecnología para generar impacto real en las operaciones. Nuestro equipo, de 60 profesionales con 13 años en el mercado y más de 700 proyectos, trabaja con clientes de diversos sectores para diseñar soluciones de analítica y IA.

El contexto de este rol es para liderar el desarrollo e implementción de 6 agentes de IA que automatizarán procesos logísticos en 4 áreas de una empresa salmonera líder en Chile y que tendrá un altisimo impacto en el negocio.

This job offer is on Get on Board.

Funciones principales

Desarrollo (70%)

  • Diseñar, desarrollar y desplegar agentes de IA sobre plataformas cloud (Azure AI Foundry, AWS Bedrock o similares).
  • Construir integraciones con sistemas del cliente: SAP (ERP), email corporativo (Microsoft Graph API), APIs.
  • Implementar pipelines de orquestación multi-sistema: agentes que leen emails, interactúan con SAP, generan documentos y coordinan workflows completos.
  • Trabajar con Python como lenguaje principal y frameworks de agentes (LangChain, Semantic Kernel, Claude SDK, OpenAI Agents SDK, o equivalentes).

Liderazgo Técnico (20%)

  • Liderar y mentorear a un ingeniero junior en el desarrollo de agentes, definiendo tareas, revisando código y transfiriendo conocimiento.
  • Definir la arquitectura de los agentes en conjunto con el equipo, tomando decisiones de diseño (qué modelo usar, cómo orquestar, cómo manejar errores).

Cara al Cliente (10%)

  • Ser contraparte técnica directa de las áreas de negocio (Business Partners de Sales, Comercio Exterior) para levantar requerimientos y validar soluciones.
  • Participar en reuniones de seguimiento semanal y demostraciones de avance.
  • Explicar conceptos técnicos de forma clara a interlocutores no técnicos.

Requisitos y perfil

Experiencia: en desarrollo de software, ingeniería de datos o IA aplicada

Formación:
  • Ingeniería Civil en Computación/Informática
  • Ingeniería Civil en Eléctrica/Electrónica
  • Ingeniería en Ciencias de la Computación/Software
  • Ingeniería en Matemáticas Aplicadas o Estadística
  • Ingeniería Industrial con foco en IA/Data.
Conocimientos técnicos:
  • Lenguajes: Python (excluyente) o experiencia demostrable en lenguajes similares (TypeScript/JS).
  • LLMs & Agentes: Conocimiento práctico de modelos de lenguaje (prompting, function calling, RAG) y frameworks de agentes (LangChain, Semantic Kernel, CrewAI, Autogen, o similares).
  • Cloud: Experiencia con al menos una plataforma cloud como Azure (AI Foundry, Logic Apps, Functions), AWS (Bedrock, Lambda, Step Functions), GCP, etc.
  • Integraciones: Experiencia con APIs REST, conectores a ERPs o sistemas empresariales. Deseable: SAP, Microsoft Graph API.
  • SQL: Manejo de consultas y modelado básico
  • Versonamiento: Git, CI/CD básico.
Competencias blandas:
  • Desplante profesional: Capacidad de llevar reuniones con contrapartes de negocio de forma autónoma.
  • Comunicación técnica-negocio: Traducir requerimientos operativos en soluciones técnicas y explicar limitaciones.
  • Autonomía con criterio: Tomar decisiones técnicas de forma independiente, escalando cuando corresponde.
  • Mentoría: Disposición y capacidad para guiar a un perfil junior, delegando con estructura.

Condiciones del Cargo

  • Dedicación: 100% al proyecto (con proyección a liderar proyectos de IA similares en MAS Analytics).
  • Viajes: 9 días/mes a Puerto Montt (3 viajes de 3 días). Aproximadamente 50% presencial en terreno del cliente. Durante el proyecto (8 meses) y luego modalidad híbrido 3x2 en Santiago.
  • Modalidad: híbrida + presencial en terreno del cliente.

Deseables (No Excluyentes)

  • Experiencia en industria logística, supply chain o producción de alimentos.
  • Conocimiento de procesos de comercio exterior o documentación aduanera.
  • Certificaciones cloud (Azure AI Engineer, AWS ML Specialty).

Beneficios

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Wellness program MAS Analytics offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $3000 - 3500 Full time
Python Virtualization Amazon Web Services Cloud Computing

Niuro connects projects with elite tech teams, empowering them to work with top-tier U.S. companies. As a Senior AI Engineer on a growing product team, you’ll contribute to an AI-integrated solution for the tax industry, driving innovation and delivering impactful, real-world results. You’ll join a company that emphasizes continuous professional growth, leadership development, and a strong administrative backbone so you can focus on engineering excellence and high-value work across global, remote teams.

Applications at getonbrd.com.

What You'll Do

  • Design, build, and improve AI-driven systems, including agent-based and multi-agent workflows
  • Debug, stabilize, and refactor AI/LLM systems currently running in production
  • Develop and integrate AI capabilities through REST APIs (FastAPI or equivalent)
  • Deploy, monitor, and operate services on AWS
  • Automate manual workflows: document comparison, OCR pipelines, account provisioning
  • Communicate trade-offs, progress, and risks clearly to technical and non-technical stakeholders


What Makes This Role Interesting:

  • You'll work on a product that directly replaces manual, high-volume tax workflows with AI
  • Real ownership: you'll see your systems go from design to production
  • Direct collaboration with engineers and leadership — no bureaucracy
  • A technical environment that values pragmatism, velocity, and problem-solving

Requirements

  • Fluent English — written and spoken
  • Strong Python skills as your primary language
  • Hands-on LLM experience with OpenAI, Anthropic, AWS Bedrock, or similar
  • API and service development experience (FastAPI or equivalent)
  • AWS deployment and operations experience; you’ve shipped and run things in the cloud
  • Comfort with real-world, imperfect systems and pragmatic problem-solving
  • Ability to work with core engineers, product, and leadership in a fast-paced environment

Nice to Have

  • Agent or multi-agent frameworks (LangGraph, LangChain, LlamaIndex)
  • Containerized deployments (Docker, ECS, Gunicorn)
  • Observability tools (CloudWatch, Prometheus, Grafana)
  • Semantic search, embeddings, or vector databases
  • Document processing / extraction tools (e.g., AWS Textract)
  • Testing (pytest, Playwright) and CI/CD workflows
  • Exposure to tax, fintech, or document-heavy domains

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.

Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.

Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.

Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
Gross salary $3700 - 5000 Full time
Ingeniero/a de Inteligencia Artificial
  • HUMAN CAPITAL
  • Salvador (In-office)
Python Analytics Virtualization Big Data

En HUMAN CAPITAL trabajamos para impulsar a empresas con soluciones de talento de alto impacto. Nuestro proyecto se centra en diseñar y desplegar agentes autónomos y arquitecturas avanzadas de Retrieval-Augmented Generation (RAG) utilizando Python, Google Cloud Platform (GCP) y modelos Gemini. El objetivo es crear sistemas que aprendan, razonen y actúen en un entorno cloud-native, generando valor real para el negocio y facilitando la colaboración entre equipos multidisciplinarios en una startup de alto crecimiento.

Apply without intermediaries through Get on Board.

Lo que harás

Construir agentes inteligentes utilizando frameworks modernos y modelos Gemini. Desarrollar y orquestar soluciones en GCP (Vertex AI, BigQuery, Kubernetes). Diseñar pipelines RAG para respuestas precisas y contextualizadas. Programar en Python con librerías clave (NumPy, Pandas, PyTorch/TensorFlow). Optimizar prompts y evaluar modelos en producción. Colaborar con equipos multidisciplinarios y traducir necesidades de negocio en soluciones técnicas.

Lo que buscamos

3–5 años de experiencia en ML, Data Science o Ingeniería de IA. Dominio avanzado de Python. Experiencia práctica en GCP (Vertex AI, BigQuery, despliegue). Conocimiento sólido en LLMs y NLP. Experiencia en RAG y frameworks de agentes (LangChain, LlamaIndex es un plus). MLOps: Docker y Kubernetes para despliegue en producción. Capacidad analítica, pensamiento crítico y habilidades para resolver problemas complejos. Trabajo en equipo, comunicación clara y orientación a resultados.

Desirable

Conocimiento de deployment de modelos en producción, experiencia en plataformas de MLOps, y experiencia en entornos de educación tecnológica o IA aplicada pueden ser valorados. Proactividad, curiosidad tecnológica y capacidad para lidiar con ambigüedad en proyectos de rápido crecimiento.

Gross salary $1000 - 1100 Full time
Python Git Artificial Intelligence Machine Learning
En Suncast estamos impulsando una transformación digital en el sector de energías renovables mediante el uso de Inteligencia Artificial avanzada. Nuestro equipo se dedica a desarrollar soluciones predictivas de alta precisión para optimizar la operación de plantas fotovoltaicas y eólicas a nivel global. Como Ingeniero/a de Machine Learning, te enfocarás en el desarrollo, optimización y mantenimiento de modelos de machine learning aplicados a los servicios ofrecidos por Suncast. Además, contribuirás al cumplimiento de los objetivos tecnológicos de la compañía, impulsando el escalamiento e internacionalización de los servicios de la empresa tanto en Chile como en el extranjero.

Apply directly through getonbrd.com.

Funciones y responsabilidades

  • Investigar, desarrollar y optimizar modelos predictivos de Machine Learning aplicados a energía solar y eólica.
  • Participar en el ciclo de vida de modelos: estudio de algoritmos en producción, despliegue, mantenimiento y mejora continua.
  • Evaluar rendimiento de modelos mediante métricas adecuadas y realizar ajustes para maximizar precisión y eficiencia de pronósticos.
  • Garantizar calidad y escalabilidad del código: revisiones de pares, corrección de errores y documentación técnica bajo buenas prácticas.
  • Colaborar con stakeholders y el área de Desarrollo para integrar modelos en la plataforma web y traducir requisitos de negocio en soluciones técnicas viables.
  • Trabajar junto al equipo de Desarrollo para asegurar una integración fluida de los modelos en el entorno de producción.

Requisitos y perfil

  • Profesional titulado en Ingeniería Civil Eléctrica, Informática, Computación o carrera afín, con 0 - 2 años de experiencia.
  • Dominio de avanzado de herramientas de programación, especialmente Python y librerías relacionadas con Data Science/Machine Learning (Pandas, Matplotlib, PyTorch)
  • Conocimiento y uso de Git para control de versiones.

Habilidades deseables

Será considerado un plus poseer conocimientos en:
  • Idioma inglés intermedio.
  • Conocimientos básicos de la industria energética.
  • Experiencia en procesamiento de datos satelitales o aplicaciones relacionadas con el sector energético.
  • Conocimientos de machine learning e inteligencia artificial.
  • Interés por la ciencia de datos y las energías renovables.

Beneficios

Al unirte a Suncast, disfrutarás de una serie de beneficios que incluyen:
  • Vestimenta informal, fomentando un ambiente cómodo.
  • Trabajo remoto, lo que permite una mayor flexibilidad y equilibrio entre la vida personal y profesional.
  • Horario de oficina flexible de lunes a viernes, perfecta para quienes buscan organización en su tiempo.
Te invitamos a ser parte de un equipo apasionado y dinámico que está definiendo el futuro de la tecnología en energías renovables. ¡Esperamos tu postulación! 🌱

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Suncast provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Python Analytics Data Analysis NoSQL

Grupo Mariposa es una corporación multinacional de bebidas y alimentos fundada en 1885, con operaciones en más de 14 países y más de 15,000 colaboradores. Contamos con el portafolio de bebidas más grande de la región y partnerships con líderes globales como PepsiCo y AB InBev. En los últimos años nos hemos expandido globalmente y reorganizado en cuatro unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Buscamos talentos para potenciar nuestra estrategia de crecimiento y llevar alegría y desarrollo a lo largo de la organización. En este rol, tendrás la oportunidad de liderar la arquitectura de datos e IA, diseñando soluciones escalables que habiliten análisis a gran escala y la operacionalización de modelos de ML/IA en entornos de producción.

Apply to this job through Get on Board.

Funciones y responsabilidades

  • Diseñar e implementar arquitecturas de Datos e IA híbridas y escalables (Lakehouse) para soportar ingestión masiva y cargas de trabajo de ML/IA.
  • Definir y estandarizar flujos de trabajo para Data Science, asegurando un ciclo de vida de modelos (MLOps) ágil y robusto.
  • Actuar como referente técnico en Databricks (Unity Catalog, Delta Lake, MLflow), garantizando buenas prácticas de código y rendimiento.
  • Modelar y optimizar esquemas NoSQL para aplicaciones de alto rendimiento y baja latencia.
  • Establecer políticas de gobierno de datos que cubran datasets tradicionales, feature stores y registros de modelos.
  • Colaborar estrechamente con Data Engineers y Data Scientists para cerrar la brecha entre prototipado y despliegue en producción.
  • Liderar iniciativas de arquitectura orientadas a IA, incluyendo patrones de inferencia batch vs. real-time y escalabilidad de modelos.

Descripción y requisitos

Buscamos un Arquitecto de Datos Senior con visión estratégica para liderar el diseño de nuestra plataforma de Datos.
Tu misión será construir cimientos que permitan no solo el análisis de datos a escala, sino también la operacionalización eficiente de modelos de Datos, Machine Learning y soluciones de IA. Debes dominar Databricks y demostrar experiencia llevando modelos a producción, gestionando arquitecturas que soporten analítica avanzada, Se valorará capacidad para definir estrategias de gobierno de datos, MLOps y colaboración transversal entre equipos.

Requerimientos:

  • Más de 5 años de experiencia en Ingeniería de Datos, Arquitectura de Datos o ML Engineering.
  • Dominio experto de Databricks (Unity Catalog, Delta Lake, MLflow).
  • Programación avanzada en PySpark y Python para ingeniería de datos.
  • Experiencia sólida en o integraciones con bases de datos (diseño de esquemas, optimización de queries y escalabilidad).
  • Conocimientos en entornos Cloud (Azure, AWS o GCP).

Deseables:

  • Experiencia con Feature Stores.
  • Conocimiento de herramientas de orquestación (Airflow, Prefect, etc.).
  • Experiencia en architecturas de IA y ML, con prácticas de MLOps (entrenamiento, versionado, despliegue y monitoreo).
  • Familiaridad con despliegue de LLMs o IA Generativa.
  • Certificaciones en Databricks (Data Engineer o ML Practitioner).

Perfil deseable

Se valoran certificaciones en Databricks y experiencia demostrable liderando proyectos de IA en entornos de producción. Capacidad para comunicar resultados técnicos a stakeholders no técnicos y para liderar equipos multidisciplinarios. Enfocado en resultados, con pensamiento analítico y enfoque práctico para resolver problemas complejos de datos a escala.

Beneficios

  • Trabajo remoto
  • Excelente ambiente para proponer e innovar tecnológicamente
  • Ambiente de trabajo colaborativo y dinámico
  • Desarrollo profesional y oportunidades de crecimiento
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Grupo Mariposa provides a computer for your work.
Informal dress code No dress code is enforced.
Gross salary $1800 - 3000 Full time
Python Artificial Intelligence Machine Learning Data Science
Krunchbox is a retail analytics SaaS platform helping brands increase sell-through, prevent stockouts, and uncover lost revenue across major retailers. We’re launching Krunchbox Reimagined — a modern AI platform focused on predictive analytics, AI agents, and real-time decision support. We’re looking for an AI / ML Engineer (1–5 years experience) to help us build chatbots, RAG systems, and production-grade ML models used directly by customers. This role spans building AI agents that generate insights, reports, and recommendations; developing RAG pipelines blending LLMs with structured data (POS, inventory, product data); and creating chat-based experiences for customer analytics.

Send CV through getonbrd.com.

What You’ll Do

  • Build AI agents (“Krunchy”) that generate Insights, Reports, Recommendations
  • Develop RAG pipelines combining LLMs with structured data (POS, inventory, product data)
  • Create chat-based experiences for customer analytics
  • Machine Learning Modeling (Core): build and improve models for Demand forecasting, Stockout risk, Lost sales estimation, Anomaly detection
  • Perform feature engineering on messy retail datasets
  • Model evaluation and iteration
  • Help take models from prototype → production
  • Tech Stack: Python (FastAPI preferred), LLM APIs (OpenAI, Anthropic), LangChain / LlamaIndex (or similar), Vector databases, ClickHouse / modern data stack, AWS / cloud infrastructure

Requirements

1–5 years of experience in ML, data science, or backend engineering
Strong Python skills
Experience building APIs or backend systems
Experience with machine learning modeling (e.g., regression, time-series, classification, or similar)
Exposure to LLMs, chatbots, or prompt engineering
Comfortable working with messy datasets
Nice to Have: RAG or vector search experience; Time-series forecasting (Prophet, XGBoost, etc.); Retail / supply chain data experience; MLOps or production ML exposure
Why Join: Build real AI products (not just models); Work on LLMs, chatbots, and predictive ML systems; High ownership and fast growth; Be part of a major platform rebuild
Compensation: Competitive salary; Health benefits; Hybrid work model
Optional (but high leverage): Please include examples of ML models or LLM projects you’ve built (GitHub or portfolio).

Nice to Have

  • RAG or vector search experience
  • Time-series forecasting (Prophet, XGBoost, etc.)
  • Retail / supply chain data experience
  • MLOps or production ML exposure

Benefits

  • Competitive compensation package.
  • Comprehensive health and benefits coverage.
  • A predominantly in-person, collaborative work environment located in Mexico City to encourage fast iteration and real-time problem solving.
  • Opportunity to scale and lead a global SaaS platform that solves real-world customer challenges.
  • A direct, impactful role in shaping the future of AI-powered supplier-retailer collaboration.

Partially remote You can work from your home some days a week.
Computer provided Krunchbox provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
AI Engineer Senior
  • Grupo Mariposa
Python Unity Continuous Deployment Azure

Sobre la empresa

Somos una corporación multinacional de bebidas y alimentos con operaciones regionales, un portafolio amplio de marcas y una estrategia acelerada de transformación digital. Dentro de Apex Digital / M5, el área de Data & Analytics habilita productos analíticos, datos gobernados y capacidades avanzadas para las unidades de negocio, incluyendo CBC, Beliv, BIA y las iniciativas transversales de transformación digital.

Como parte de esta evolución, la organización está avanzando hacia una arquitectura empresarial de AI Agents basada en Databricks, ADLS Gen2, Unity Catalog, Azure AI / Microsoft Foundry, Copilot Studio y Power Automate, buscando habilitar asistentes y agentes empresariales seguros, trazables, escalables y conectados con los datos core del negocio.

This company only accepts applications on Get on Board.

Job functions

Diseñar, construir, desplegar y evolucionar soluciones de IA generativa y agentes empresariales sobre Azure AI / Microsoft Foundry, integradas con la plataforma de datos corporativa, para habilitar casos de uso de negocio con trazabilidad, seguridad, escalabilidad y alto impacto operativo y comercial.

Responsabilidades clave del puesto

  • Diseñar soluciones de IA generativa, asistentes y agentes empresariales usando Azure AI, Microsoft Foundry y servicios relacionados.
  • Definir arquitectura de referencia para RAG, agentes, tools, evaluación, seguridad y observabilidad.
  • Construir APIs, microservicios y componentes backend en Python para integrar modelos, herramientas y sistemas corporativos.
  • Conectar soluciones de IA con Databricks, Unity Catalog, ADLS Gen2, Azure AI Search, Power Automate, Copilot Studio, Teams, canales web y otros sistemas internos.
  • Establecer mecanismos de grounding, control de acceso, versionado, pruebas, evaluación y monitoreo de respuestas.
  • Colaborar con Data Engineering, BI, Arquitectura, Seguridad, Producto y áreas de negocio para llevar los casos de uso a producción.

Alineación con la Arquitectura Agents AI:

  • Desarrollar el blueprint técnico de la arquitectura propuesta, definiendo componentes, patrones, flujos, ambientes y criterios de despliegue.
  • Implementar el patrón base de conocimiento empresarial conectando Databricks, ADLS Gen2 y Foundry IQ / capacidades de búsqueda y grounding.
  • Configurar y desarrollar agentes o copilots sobre Copilot Studio / Foundry, con invocación de acciones a través de Power Automate o servicios backend.
  • Definir estándares de observabilidad, evaluación, seguridad y gobierno para la operación de soluciones de IA.

Impacto esperado para la organización

  • Crear una capacidad interna escalable para asistentes, agentes y automatizaciones inteligentes.
  • Incrementar productividad, velocidad de atención y capacidad de decisión en procesos clave.

Qualifications and requirements

  • Licenciatura en Ingeniería en Sistemas, Ciencias de la Computación, Electrónica, Software o carrera afín. Maestría es un plus.
  • 5+ años en desarrollo de software, cloud o data products, y al menos 2-3 años en IA generativa, LLMs, RAG o agentes.
  • Experiencia práctica en Azure AI, Azure OpenAI y preferentemente Microsoft Foundry / Foundry Agent Service / Copilot Studio.
  • Conocimiento sólido de Python, APIs, FastAPI, SDKs, contenedores, CI/CD y buenas prácticas de ingeniería.
  • Experiencia con servicios Azure como Storage, Key Vault, Entra ID, App Service, Functions, monitoreo y seguridad.
  • Conocimiento de Databricks, Unity Catalog, ADLS Gen2, gobierno de datos y patrones de integración con plataformas analíticas.
  • Capacidad para traducir un draft arquitectónico en una solución productiva, documentada y operable.
  • Inglés técnico suficiente para documentación, lectura de arquitectura y trabajo con proveedores o documentación oficial.

Conditions

  • Ambiente de trabajo colaborativo y dinámico.
  • Desarrollo profesional continuo y oportunidades de crecimiento.
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal.

$$$ Full time
Sysadmin Soporte técnico SaaS Salesforce

La misión de Checkr es construir un futuro más justo mejorando la comprensión del pasado. Como empresa que proporciona verificaciones de antecedentes modernas y conformes, Checkr sabe lo difícil que puede ser para las personas con antecedentes penales encontrar empleo y buscamos brindar oportunidades justas para los exconvictos.

Apply without intermediaries from Get on Board.

Responsibilities

  • Gestión de Accesos: Liderar el aprovisionamiento, desaprovisionamiento y cambios de roles diarios de los usuarios en el ecosistema de herramientas de Operaciones para usuarios FTE y BPO.
  • Flujos de Trabajo: Gestionar flujos de trabajo de credencialización de extremo a extremo, validando solicitudes, aprobaciones y alineación con las políticas.
  • Atención de Tickets: Actuar como el punto de contacto principal para las solicitudes de acceso enviadas a través de la cola interna de Jira.
  • Resolución Técnica: Triar y resolver tickets de herramientas y sistemas de baja complejidad, escalando problemas de alto impacto de manera oportuna.
  • Auditoría y Seguridad: Mantener registros de acceso precisos e inventarios de licencias para apoyar auditorías internas, gestión de costos y revisiones de seguridad.
  • Colaboración con IT: Coordinar con el equipo de IT el aprovisionamiento de SSO/Okta y asegurar el cumplimiento de los estándares de acceso de "mínimo privilegio".
  • Administración de Plataformas: Ejecutar procesos de incorporación y desincorporación en Salesforce, Zendesk, Assembled, MaestroQA, Lessonly, Sprout, Autotab y Talkdesk.
  • Respuesta a Incidentes: Apoyar la respuesta a incidentes documentando y escalando incidentes de herramientas P1/P0 a través de canales definidos.
  • Mejora de Procesos: Identificar brechas en los procesos de acceso, proponer mejoras y contribuir a los procedimientos operativos estándar.

What you will bring

  • Experiencia: 2 a 4 años de experiencia en Operaciones, soporte de IT o entornos de herramientas de Experiencia del Cliente (CX).
  • Conocimientos SaaS: Familiaridad con conceptos de administración de SaaS, especialmente gestión de roles y control de acceso.
  • Plataformas de Identidad: Conocimiento práctico de SSO y plataformas de identidad como Okta y Google Workspace.
  • Manejo de Datos: Experiencia en el manejo seguro de datos confidenciales o de identificación personal (PII).
  • Idiomas: Dominio del idioma inglés (escrito y verbal) suficiente para colaborar en un entorno global.
  • Habilidades Blandas: Mentalidad orientada a los procesos, detallista y con capacidad para gestionar múltiples solicitudes simultáneamente.

Nice-to-have

  • Experiencia previa con Salesforce, Zendesk, Assembled, MaestroQA o Talkdesk.
  • Exposición a herramientas de automatización o scripts (ej. Workato, Zapier, Python simple o Google Apps Script).
  • Experiencia trabajando con fuerzas laborales distribuidas o subcontratadas (BPO).
  • Contribución previa a la documentación de procesos o manuales de herramientas internas.

What we offer

  • Cobertura médica, dental y de visión al 100%.
  • Política de tiempo libre pagado (PTO) flexible.
  • Reembolsos para gimnasio y transporte.
  • Almuerzo, cena y snacks provistos en la oficina.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
Gross salary $900 - 1000 Full time
IT Operator Streaming
  • Mediastream
  • Santiago &nbsp Bogotá (In-office)
Ruby Python Linux Web server
En Mediastream, con más de 18 años liderando tecnología de streaming, trabajamos con grandes empresas y broadcasters a nivel mundial. Nuestro equipo profesional crea una experiencia extraordinaria en la visualización de contenido audiovisual mediante herramientas propias que satisfacen las necesidades de la audiencia digital actual. Ofrecemos una solución end-to-end, apoyando a los clientes desde la gestión y transmisión del contenido hasta su análisis de comportamiento. Nuestro valor reside en el acompañamiento continuo, la adaptación de productos a medida y un servicio de soporte 24/7 para cada necesidad. El candidato seleccionado formará parte de un entorno dinámico y colaborativo, enfocado en la innovación y el crecimiento profesional dentro de la industria del streaming y la distribución audiovisual.

Send CV through getonbrd.com.

Funciones

  • Monitorear proactivamente el rendimiento de sistemas y servicios para garantizar su correcto funcionamiento.
  • Identificar, analizar y dar seguimiento a la resolución de problemas de sistemas y servicios; escalar a equipos L1/L2 (principalmente Desarrollo y Sistemas) cuando sea necesario.
  • Gestionar la comunicación con proveedores o ISP; generar procedimientos, manuales e instructivos para eventos no documentados.
  • Ser responsable de la continuidad de las plataformas bajo su administración y de registrar todos los eventos que originen incidentes o requerimientos.
  • Dar seguimiento a incidentes asignados, mantener la información actualizada y reportar avances de forma autónoma; generar informes diarios, semanales y mensuales sobre las plataformas administradas.
  • Identificar incidencias recurrentes y proponer acciones preventivas para evitar su repetición.
  • Colaborar con equipos internos para la resolución de problemas y mejora continua; trabajar con herramientas de monitoreo y gestión de infraestructuras.

Descripción

Buscamos un/una IT Operator para unirse a nuestro equipo de Mediastream y asegurar la disponibilidad y rendimiento de nuestras plataformas de streaming y servicios asociados.
Requisitos clave: experiencia en sistemas operativos Linux (Ubuntu, Debian, CentOS, etc.), gestión y soporte de infraestructuras de redes (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, Firewalls, etc.), uso de herramientas de monitoreo (Datadog, CloudWatch, SolarWinds, Pingdom), scripting (Bash, Ruby, Python u otros), administración de servidores web (Nginx) y soporte computacional (Windows, WIFI, Antivirus, inventario). Conocimientos en AWS (CloudWatch, EC2, ASG, CloudFront).
Competencias: orientación a procesos, capacidad para trabajar bajo presión, comunicación efectiva, y enfoque en la continuidad operativa. Se valorará experiencia previa en entornos de streaming o distribución audiovisual y capacidad de documentación clara y actualizada.

Requisitos deseables

Experiencia adicional en plataforma de streaming, experiencia con herramientas de gestión de incidentes y conocimiento de seguridad de redes. Disponibilidad para trabajar en horarios variados y capacidad de colaborar con equipos multifuncionales en un entorno de alta demanda.

Beneficios

En Mediastream ofrecemos un entorno laboral dinámico y colaborativo que fomenta la innovación constante y el crecimiento profesional. Promovemos una cultura inclusiva basada en el apoyo mutuo y el desarrollo tanto personal como profesional. Contamos con amplias oportunidades de capacitación en tecnologías de vanguardia y trabajamos en conjunto con un equipo de alto nivel para enfrentar desafíos relevantes dentro de la industria del streaming y distribución audiovisual.

Gross salary $2000 - 2600 Full time
Oficial de Ciberseguridad
  • Inexoos
  • Santiago (In-office)
Java Python Linux Virtualization
Compañía: Inexoos, un grupo de empresas latinoamericanas con más de 20 años de operación, dedicado a entregar soluciones tecnológicas de calidad e innovación en educación, salud y negocio. Nuestro objetivo es proteger activos de información y alinear la seguridad con las metas de negocio de las unidades de salud y educación.

Proyecto y alcance: Diseñar, implementar y supervisar la estrategia de ciberseguridad del holding, gestionando riesgos, cumplimiento normativo y defensa ante amenazas cibernéticas. Este rol es clave para garantizar la continuidad operativa, la protección de datos y la confianza de clientes y socios en un entorno tecnológico en constante evolución. El oficial trabajará en colaboración con equipos de tecnología, cumplimiento y operaciones para traducir requisitos de negocio en controles técnicos efectivos.

Apply from getonbrd.com.

Funciones y responsabilidades clave


1. Estrategia y Gobierno de Seguridad

  • Definir y mantener el plan estratégico de ciberseguridad del holding.
  • Alinear políticas y controles con estándares como ISO/IEC 27001:2022, NIST CSF y leyes locales (Ley 19.628, GDPR).
  • Establecer indicadores de desempeño y riesgo (KPIs y KRIs) para la ciberseguridad.


2. Ejecución de Pruebas Técnicas

  • Ejecutar directamente pruebas de vulnerabilidad y pentesting en sistemas, redes, aplicaciones e infraestructura.
  • Analizar código fuente en desarrollos internos/externos y validar configuraciones seguras en entornos cloud y on-premise.
  • Generar reportes técnicos y validar correcciones de seguridad.

3. Monitoreo y Operación

  • Operar y mejorar herramientas como SIEM, EDR, DLP, IDS/IPS, entre otras.
  • Gestionar incidentes de seguridad, desde su detección hasta su resolución.
  • Coordinar el ciclo de vulnerabilidades, parches y hardening.

4. Cumplimiento y Auditoría

  • Asegurar el cumplimiento con normativas locales e internacionales (Ley 19.628, Cybercrime Act, Privacy Act, GDPR, ISO 27701).
  • Participar en auditorías técnicas de seguridad y planes de remediación.
  • Mantener actualizados los controles del ISMS y liderar revisiones técnicas periódicas.

5. Cultura de Seguridad y Concientización

  • Diseñar campañas de concientización y programas de formación para usuarios, técnicos y stakeholders.
  • Fomentar la colaboración transversal con áreas como Desarrollo, Legal, Compliance y Comercial.

Perfil y habilidades requeridas

Formación:

  • Título profesional en Ingeniería en Informática, Sistemas, Electrónica o afín.

Experiencia:

  • ≥ 3 años de experiencia comprobable en roles de ciberseguridad ofensiva/defensiva, pruebas de penetración y gestión de riesgos técnicos.
  • Experiencia en implementación y auditoría de ISO/IEC 27001:2022.

Conocimientos Técnicos:

  • Dominio de frameworks: ISO/IEC 27001, NIST CSF, OWASP Top 10.
  • Conocimiento práctico de herramientas: Burp Suite, Nessus, Metasploit, Wireshark, Kali Linux, SonarQube, etc.
  • Experiencia en entornos cloud (AWS, Azure), sistemas operativos (Windows/Linux), redes y lenguajes de programación (Python, Java).
  • Gestión de incidentes y operación de soluciones como SIEM, EDR, IDS/IPS.

Certificaciones (al menos una):

  • ISO/IEC 27001:2022 Lead Implementer o Auditor.

Competencias y experiencias deseables

Certificaciones adicionales: OSCP, CEH, GPEN, CISSP, CISM, CCSP.

Experiencia en sectores regulados: salud, educación, fintech, SaaS.

Conocimiento en cumplimiento normativo: GDPR, HIPAA, PCI DSS, SOC 2.

Experiencia liderando equipos de seguridad o proveedores externos.

Participación en procesos de auditoría interna y externa.

Beneficios y cultura

Seguro Complementario, aguinaldos (fiestas patrias y navidad), mediodía libre para tu compleaños.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Inexoos pays or copays health insurance for employees.
Computer provided Inexoos provides a computer for your work.
$$$ Full time
Ingeniero/a de Ciberseguridad
  • BICE VIDA
  • Santiago (Hybrid)
Java .Net Python Virtualization

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Apply to this job through Get on Board.

¿Qué Buscamos? 👀

En BICE Vida estamos en búsqueda de un/a Ingeniero/a de Ciberseguridad para integrarse a nuestro equipo de tecnología, con foco en el desarrollo seguro de aplicaciones y la protección de nuestros activos digitales.

El objetivo del cargo es garantizar la protección de la información sensible y el bienestar de los procesos tecnológicos, asegurando el cumplimiento de normativas y estándares de seguridad exigidos por clientes y reguladores.

Este rol será clave para prevenir incidentes como accesos no autorizados, ransomware y vulnerabilidades en los sistemas de la compañía, fortaleciendo la continuidad operacional y la resiliencia tecnológica, especialmente en proyectos de desarrollo de aplicaciones.

Tendrás la oportunidad de trabajar codo a codo con equipos de ingeniería, arquitectura y desarrollo, integrando la seguridad desde el diseño y acompañando todo el ciclo de vida del software.

📋 En este rol deberá:

🔐 Diseñar, implementar y medir arquitecturas de seguridad dentro de los ciclos de desarrollo de la compañía, con foco en:

  • Disminuir el porcentaje de vulnerabilidades detectadas en los desarrollos
  • Implementar métricas de seguimiento para la remediación de vulnerabilidades

⚙️ Integrar prácticas seguras en los pipelines de desarrollo (CI/CD)

  • Gestión eficiente y automatizada de herramientas de ciberseguridad en los pipelines
  • Implementación y seguimiento de herramientas para la protección de secretos, dependencias y contenedores

🧩 Evaluar continuamente la seguridad de aplicaciones y arquitecturas

  • Revisiones de diseño, análisis de riesgos y evaluación de modelos de amenazas
  • Cumplimiento de estándares, normativas y auditorías
  • Identificación temprana de debilidades de seguridad

🚨 Gestionar incidentes de seguridad relacionados con accesos no autorizados, suplantación de identidad o brechas de seguridad

  • Mejora continua en la capacidad de respuesta ante incidentes
  • Mitigación oportuna de riesgos críticos

¿Qué necesitamos? 😎

🎓 Formación académica:

  • Ingeniería en Informática, Ciberseguridad, Redes o carrera afín.

💼 Experiencia:

  • Experiencia en entornos híbridos (on-premise y cloud), idealmente con Azure AD, AWS o GCP
  • Experiencia en diseño de seguridad de código, detectando, mitigando y corrigiendo vulnerabilidades
  • Experiencia en análisis continuo de seguridad de aplicaciones y arquitecturas

🛠️ Conocimientos técnicos:

  • Conocimiento avanzado de OWASP Top 10, CWE Top 25 y patrones de ataque
  • Dominio de lenguajes como Java, Python y/o .NET
  • Manejo de herramientas de análisis de código: SAST, DAST, SCA
  • Seguridad en APIs y contenedores
  • Conocimiento de normas y leyes de seguridad de la información, tanto nacionales como internacionales

Sumarás puntos si cuentas con 😻:

  • Experiencia implementando seguridad en metodologías DevSecOps
  • Participación en auditorías o procesos de certificación de seguridad
  • Conocimientos en automatización de controles de seguridad
  • Certificaciones en ciberseguridad (por ejemplo: Security+, CEH, CISSP, Azure/AWS Security)

¿Cómo es trabajar en BICE Vida?

  • 🏥 Seguro complementario de salud, dental y de vida, más seguro catastrófico (para ti y tus cargas legales).
  • 🎁 Bonos en UF según la época del año y tu antigüedad en la compañía.
  • ⏰ Salida anticipada los viernes a las 14:00 hrs para ayudarte a equilibrar tu vida laboral y personal.
  • 👟 Dress code semi-formal, priorizamos la comodidad.
  • 🍽️ Almuerzo gratuito en el casino corporativo (sí, también hay día “no-fit” 😄).
  • 📚 Capacitaciones constantes para impulsar tu desarrollo profesional.
  • 📍 Casa Matriz en Providencia, a pasos del metro Pedro de Valdivia.
  • 🚲 Bicicleteros disponibles para que vengas en bici sin preocupaciones.

Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
Education stipend BICE VIDA covers some educational expenses related to the position.
Gross salary $1800 - 2100 Full time
Especialista en Seguridad Ofensiva
  • QuePlan.cl
  • Santiago (Hybrid)
JavaScript Java Python PHP

En QuePlan.cl estamos revolucionando la forma de elegir Isapres y haciendo más fácil la decisión para miles de personas en Chile, con presencia en Chile, Perú y Colombia. Buscamos impulsar nuestra ciberseguridad desde una perspectiva ofensiva para fortalecer nuestra postura y mantener la innovación en un entorno 100% digital. El/la candidato/a ideal se unirá a un equipo enfocado en seguridad de software y sistemas, apoyando prácticas de seguridad desde el diseño, desarrollo y operaciones, con impacto directo en la experiencia del usuario y la transparencia de nuestra oferta de planes de Isapres.

This company only accepts applications on Get on Board.

Funciones

  • Ejecutar pruebas de penetración en aplicaciones web, APIs REST/SOAP y servicios cloud para identificar vulnerabilidades críticas y proponer planes de remediación.
  • Evaluar la seguridad con metodologías reconocidas como OWASP Top 10, OWASP Testing Guide y PTES, documentando hallazgos y niveles de riesgo.
  • Elaborar informes técnicos y ejecutivos con evidencias, impacto y recomendaciones de mitigación.
  • Colaborar con desarrollo y operaciones para revisión de código seguro e implementación de prácticas SDLC seguras.
  • Participar en ejercicios de Red Team y simulaciones de ataques para fortalecer la postura de seguridad.
  • Mantenerse actualizado sobre vulnerabilidades, exploits y herramientas de seguridad ofensiva.

Requisitos y experiencia

Formación en Ingeniería en Informática, Ciberseguridad o carreras afines (deseable diplomado en Seguridad de la Información).

Al menos 2 años de experiencia en seguridad ofensiva o pentesting web (blackbox, greybox y whitebox).

Dominio de OWASP Top 10 y experiencia con herramientas como Burp Suite Pro, OWASP ZAP, Nmap, SQLMap, Metasploit, Nuclei, ffuf, dirb, entre otras.

Conocimientos en Python o Bash; preferible manejo de JavaScript, PHP o Java para revisión de código. Entendimiento de redes y protocolos (TCP/IP, HTTP/HTTPS, DNS, TLS/SSL, OAuth, JWT, SAML).

Certificaciones como CEH, OSCP, eWPT o experiencia en ISO 27001 son deseables. Capacidad analítica, atención al detalle, proactividad, pensamiento crítico y buen trabajo en equipo. Ética profesional y alto estándar de confidencialidad.

Deseables

Certificaciones en seguridad ofensiva (CEH, OSCP, eWPT) y experiencia en entornos ISO 27001.

Experiencia trabajando en entornos Agile/SDLC y colaboración con equipos multifuncionales. Capacidad para comunicar riesgos de forma clara a stakeholders técnicos y no técnicos. Idioma inglés técnico es un plus.

Beneficios

Todas las herramientas necesarias para trabajar, computador y otros insumos.

Horario flexible con cierre de viernes a las 16:00 y 09:00-18:30 resto de la semana.

Vacaciones administrativas de libre uso, seguro complementario de salud catastrófico y dental, beneficios de Caja Los Andes, bonos por festividades y temporada navideña, y permisos por matrimonio o cumpleaños. Vestimenta semiformal y modalidad híbrida.

Ubicación en Santiago, oficina en Providencia (Metro Pedro de Valdivia).

Health coverage QuePlan.cl pays or copays health insurance for employees.
Computer provided QuePlan.cl provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal QuePlan.cl gives you paid vacations over the legal minimum.
Gross salary $2500 - 3000 Full time
Automation SOC Cloud Engineer Infrastructure Engineer
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

This job offer is on Get on Board.

What You’ll Do

  • Design, implement, and operate security and trust controls across identity and access management, endpoints, cloud infrastructure, applications, and AI-enabled systems.
  • Own trust workflows end-to-end, including control design, enforcement, monitoring, and evidence generation.
  • Translate external assurance and governance requirements (SOC 2, ISO 27001, ISO 42001, etc.) into automated, system-enforced mechanisms.
  • Build and maintain automation that eliminates repetitive security and compliance work.
  • Use AI-assisted tools to improve detection quality, reduce manual analysis, and identify control gaps and risks.
  • Partner with Infrastructure, Platform, Engineering, and Product teams to embed security and trust by default.
  • Support audits using system-generated evidence, not manual spreadsheets or checklists.
  • Evolve trust systems continuously as technology and risk landscapes change.

Required Qualifications

Bachelor’s degree in Computer Science, Engineering, or a related field — or equivalent practical experience. At least 3+ years of experience in one or more of the following areas: Security Engineering, Platform Engineering, Infrastructure Engineering, or Cloud Engineering with strong automation ownership. Hands-on experience supporting or owning external assurance frameworks such as SOC 2, ISO 27001, ISO 42001 (or similar). Strong experience using automation and system design to reduce manual operational work. Solid understanding of identity and access management, cloud platforms, logging and monitoring, and access control concepts. Ability to reason about risk, governance, and control effectiveness and translate them into technical solutions. Clear written and verbal communication skills, able to explain trust posture to both technical and non-technical audiences.

Nice to Have / Preferred Experience

Experience working with AI-enabled systems, agents, or data pipelines. Understanding of AI security, trust, or governance concerns. Scripting or automation experience with Python, shell/bash, PowerShell, or low-code automation platforms. Experience in environments requiring continuous assurance, auditability, and high reliability. Security or cloud certifications are a plus but not required.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
$$$ Full time
Ethical Hacker / Pentester
  • BC Tecnología
  • Santiago (Hybrid)
Python Linux Back-end Cybersecurity
BC Tecnología es una consultora de TI con experiencia en servicios IT, outsourcing y selección de profesionales. Nuestro enfoque está en equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, apoyando clientes de servicios financieros, seguros, retail y gobierno. Buscamos incorporar a un Ethical Hacker / Pentester para reforzar nuestra práctica de seguridad y pruebas de penetración, dentro de un entorno de clientes de alto nivel y proyectos innovadores.

Apply to this job through Get on Board.

Funciones

  • Realizar pruebas de penetración en entornos Web, Mobile y APIs, bajo metodologías reconocidas (OWASP, PTES) y estándares de seguridad.
  • Utilizar herramientas clave como Burp Suite para descubrir vulnerabilidades, realizar pruebas manuales (XSS, IDOR, SSRF, Auth Bypass) y documentar hallazgos con evidencias y recomendaciones de mitigación.
  • Explorar entornos móviles con herramientas como Frida, Objection, Jadx o MobSF, para identificar debilidades de seguridad y controles de protección de datos.
  • Analizar configuraciones, arquitecturas y controles de autenticación/autorización; colaborar con equipos de desarrollo para corrección y mejoras.
  • Desarrollar reportes de resultados claros y accionables, presentar hallazgos a stakeholders y acompañar en la priorización de remediaciones.
  • Mantenerse actualizado sobre nuevas amenazas, vulnerabilidades y buenas prácticas de ciberseguridad; participar en revisiones de código y evaluación de incidentes.
  • Trabajar en un entorno de alta calidad, con enfoque en entrega ágil, documentación precisa y cumplimiento de normativas aplicables.

Requisitos y perfil

Buscamos profesionales con 2 a 3 años de experiencia en pruebas de seguridad, capaces de ejecutar pruebas de penetración de forma autónoma y colaborativa. Requisitos mínimos: experiencia en pruebas en entornos Web, móviles y APIs; dominio de Burp Suite; realización de pruebas manuales (XSS, IDOR, SSRF, Auth Bypass); familiaridad con Linux y scripting básico (Python/Bash). Conocimientos en OWASP WSTG y buenas prácticas de seguridad son valorados. Idioma español nativo o avanzado. Capacidad de trabajar en equipo, comunicar hallazgos de forma clara y gestionar entregas dentro de proyectos con clientes del sector financiero y tecnológico.

Deseables

Certificaciones relevantes tales como OSCP, eWPTX, OSWE, eJPT, eMAPT o equivalentes; experiencia con pruebas de seguridad en infraestructuras y servicios en la nube; experiencia en diseño de pruebas de seguridad y en proyectos de cumplimiento normativo. Valoramos habilidades de comunicación, pensamiento analítico, proactividad y enfoque en la mejora continua de procesos de seguridad.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
Python Analytics SQL DevOps
FactorIT, líder en tecnología con presencia en 8 países, ofrece soluciones en Data y Analytics, Transformación Digital e IA. Como consultor de soporte Azure y Data, te integrarás a un equipo innovador que impulsa la transformación tecnológica en grandes empresas y, específicamente, en proyectos regionales del sector financiero y de datos en la nube. Participarás en iniciativas de continuidad operativa, optimización de pipelines y mejora de procesos analíticos, garantizando soluciones escalables y fiables en entornos Azure.

Send CV through Get on Board.

Responsabilidades principales

  • Brindar soporte técnico a soluciones de datos en entornos Azure, asegurando estabilidad, rendimiento y continuidad operativa.
  • Analizar, monitorear y mantener pipelines, jobs y procesos de integración de datos (Databricks, Data Factory, Synapse, Data Lake).
  • Comprender estructuras de datos y lógicas de negocio para proponer mejoras y soluciones efectivas.
  • Gestionar incidencias, asegurando su correcta identificación, análisis y resolución, documentando soluciones y buenas prácticas.
  • Colaborar en la revisión y entendimiento de procesos implementados en bases de datos y plataformas de datos.
  • Colaborar con equipos multidisciplinarios y presentar avances a stakeholders técnicos y no técnicos.
  • Mantener una documentación clara y actualizada de hallazgos, soluciones y procedimientos.

Requisitos y perfil deseado

Experiencia mínima de 3 años en roles relacionados con datos y soluciones en la nube. Conocimiento práctico de Azure, incluyendo Databricks, Data Factory, Synapse y servicios de almacenamiento (ADLS).
Experiencia trabajando con bases de datos SQL Server y comprensión de lógica implementada (p. ej., Stored Procedures). Dominio de Python (nivel intermedio a avanzado) y experiencia con frameworks de procesamiento de datos como PySpark y Spark.
Conocimientos deseables en herramientas de gestión como Azure DevOps y certificaciones en tecnologías Azure. Nivel de inglés técnico para lectura de documentación.
Competencias: orientación a la resolución de problemas, capacidad analítica y pensamiento estructurado, comunicación efectiva con equipos técnicos y clientes, proactividad, autonomía, organización y adaptabilidad a entornos dinámicos con disponibilidad para trabajo remoto y continuidad operativa.

de lunes a sabado horario oficina (06am a 14pm lima). Sábados desde las 00:00 hasta las 12:00 + horas pago horas extras.

Competencias y certificaciones deseables

Experiencia adicional con herramientas de gestión como Azure DevOps y certificaciones en Azure. Conocimiento de prácticas de Data Ops, seguridad de datos y gobernanza en entornos de nube. Ante todo, actitud de aprendizaje continuo y capacidad de trabajar de forma colaborativa en un equipo orientado a resultados.

Beneficios y cultura

Ofrecemos modalidad de trabajo remota.
Regalos en fechas especiales.
Plan de capacitación a la medida.
Beneficios contractuales de empresa PYME.

Gross salary $2000 - 2500 Full time
JavaScript Python Agile Front-end
Niuro is a company dedicated to connecting elite technology teams with leading U.S. companies, providing innovative solutions in global talent acquisition. We empower autonomous, high-performance tech teams to tackle challenging and impactful projects that drive digital transformation and innovation.
As part of our collaboration with clients, you will join a diverse engineering team focused on delivering high-quality mobile and web applications using modern technologies. The projects typically involve full-stack development for industrial and commercial applications that require scalable, fast, and maintainable software systems. Our environment promotes technical excellence, innovation, and continuous professional growth.

This job offer is on Get on Board.

Main responsibilities

As a Flutter Developer in our team, your core mission will be to design, build, and maintain cross-platform mobile applications using Flutter and Dart. You will collaborate closely with frontend and backend developers, product managers, and UX designers to deliver seamless and performant user experiences.
  • Develop, test, and deploy Flutter applications targeting iOS and Android platforms.
  • Work alongside frontend teams experienced in React and Svelte to integrate web components when necessary.
  • Collaborate with backend engineers working with FastAPI, Python, and PostgreSQL to consume APIs and handle data synchronization.
  • Ensure code quality through testing, code reviews, and adherence to best practices.
  • Participate in Agile ceremonies and contribute to continuous improvement of development processes.
  • Communicate effectively with U.S.-based teams using conversational English, ensuring alignment and smooth collaboration.

Required skills and experience

We are looking for a highly motivated developer with proven experience building mobile applications using Flutter and Dart. The ideal candidate is passionate about mobile development, writes clean code, and embraces collaboration and continuous learning.
  • Strong experience with Flutter and Dart to develop performant cross-platform applications.
  • Knowledge of frontend frameworks such as React or Svelte to facilitate integration in hybrid projects.
  • Backend experience with FastAPI and Python, as well as working knowledge of relational databases like PostgreSQL.
  • Ability to write readable, maintainable, and well-tested code.
  • Conversational English skills sufficient to communicate and collaborate with U.S.-based product and engineering teams.
  • Good problem-solving skills and a proactive attitude towards learning new technologies.
  • Experience working in Agile environments and using modern development tools.
Soft skills such as teamwork, communication, and accountability are essential for successful collaboration and project delivery.

Desirable skills

Experience with additional mobile development frameworks or native code (Swift, Kotlin) is a plus. Familiarity with CI/CD pipelines and automated testing frameworks will be highly valued. Knowledge of cloud platforms such as AWS or Google Cloud, containerization technologies like Docker, and monitoring tools would also strengthen your candidacy.
Previous experience working remotely with international teams or exposure to the U.S. market is an advantage.

What we offer

At Niuro, we provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
We support a 100% remote work model, allowing flexible work location throughout LATAM and beyond. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to career stability.
Joining Niuro means becoming part of a global community dedicated to technological excellence, with strong administrative support so you can focus on delivering meaningful work.

Informal dress code No dress code is enforced.
Gross salary $2200 - 3000 Full time
JavaScript Front-end Git Node.js
En Coderslab.io, impulsamos la transformación y el crecimiento de negocios a través de soluciones tecnológicas innovadoras. Formarás parte de una organización en rápida expansión, con más de 3,000 empleados a nivel global y oficinas en América Latina y Estados Unidos. Trabajarás en equipos diversos conformados por talento tecnológico de élite (top 1%), involucrado en proyectos desafiantes e innovadores que acelerarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados en sus respectivas áreas y de trabajar con tecnologías de vanguardia.

This job is available on Get on Board.

Funciones y responsabilidades

Requisitos Deseables
  • Conocimientos en React.
  • Experiencia previa en equipos remotos.
  • Buen manejo de control de versiones (Git).
  • Capacidad de trabajo autónomo y orientación a resultados.
Aca 3 preguntas
Principios SOLID
Cuéntanos sobre un proyecto real donde hayas aplicado principios SOLID.
  • Qué principios utilizaste?
  • En qué parte del código los aplicaste?
  • Qué problemas concretos resolviste al aplicarlos?
Flutter
Describe una aplicación móvil que hayas desarrollado en Flutter de principio a fin.
  • Qué arquitectura utilizaste y por qué?
  • Cómo gestionaste el estado de la aplicación y la navegación?
  • Cómo organizaste el proyecto?
  • Qué desafíos técnicos enfrentaste?
GraphQL
Cómo has trabajado con GraphQL?
  • Cómo consumes una API GraphQL desde una app?
  • Qué herramientas o librerías utilizaste.)?
  • Cómo manejas el estado, caché, errores y loading en el cliente

Descripción y perfil buscado

Buscamos un Desarrollador Full Stack Mobile con experiencia sólida en tecnologías modernas, capaz de diseñar y entregar soluciones completas para aplicaciones móviles. Debe tener ética de trabajo colaborativa, enfoque en resultados y habilidad para comunicar conceptos técnicos a audiencias diversas. Se valorará experiencia en stacks modernos, capacidad de aprendizaje rápido y orientación a resolución de problemas en entornos dinámicos.
Backend -Nodejs y tipescript, AWS, GATEWAY ,Lambda, Api
Frontend-React

Requisitos deseables

  • Experiencia en React Native, React Flutter u otros frameworks móviles multiplataforma.
  • Conocimientos de Node.js, Python, o Java para el back-end; prácticas de API REST/GraphQL.
  • Experiencia con arquitecturas modernas (microservicios), contenedores y CI/CD.
  • Conocimiento de pruebas automatizadas y metodologías ágiles (Scrum/Kanban).
  • Habilidades de comunicación en inglés y español; capacidad para trabajar en equipos globales.

Beneficios y condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

Fully remote You can work from anywhere in the world.
Gross salary $1200 - 1500 Full time
Growth Lead
  • Patrimore
Python Data Analysis Marketing Artificial Intelligence
Patrimore es una fintech que ayuda a las personas a tomar mejores decisiones financieras. Somos 50 personas distribuidas en varias partes del mundo, y estamos buscando practicantes que construyan con IA de verdad — no que solo la usen.
Vas a trabajar directo con el equipo de tecnología, con ownership real desde el día uno: conectar modelos con sistemas internos, prototipar herramientas, optimizar flujos de datos y experimentar con lo que funcione. Acá se valora probar, fallar rápido y aprender.

Apply directly at getonbrd.com.

El rol

Buscamos a alguien que viva en la intersección entre marketing, tecnología e inteligencia artificial. No un marketer que "sabe un poco de código", ni un ingeniero que "entiende de marketing" — sino alguien para quien las tres cosas son una sola herramienta.

Vas a trabajar directamente con el CTO y el CEO en el desarrollo e impulso de nuevos productos y líneas de revenue. Si eso te suena atractivo, sigue leyendo.

¿Qué vas a hacer?

  • Segmentar la base de usuarios por comportamiento y potencial para identificar dónde está la oportunidad real
  • Diseñar y ejecutar flujos de nurturing y activación apoyándote en automatización e IA
  • Construir herramientas propias cuando lo que existe no es suficiente (APIs, automatizaciones, agentes IA)
  • Diseñar y ejecutar el funnel de conversión hacia nuevos productos de la plataforma
  • Experimentar constantemente — lanzar, medir, iterar
  • Participar activamente en el desarrollo de nuevos productos desde la fase de ideación

Lo que buscamos

  • 2 a 4 años de experiencia en roles de growth, marketing digital o similares
  • Python a nivel funcional: si necesitas resolver un problema, lo resuelves — sin esperar a nadie
  • Uso real y cotidiano de herramientas de IA como parte de tu flujo de trabajo, no como experimento ocasional
  • Mentalidad de founder: llegas con el problema resuelto, no con una lista de lo que necesitarías para resolverlo
  • Experiencia con herramientas de automatización (n8n, Make, Zapier o similares) es un plus.

Te hace destacar

  • Experiencia con herramientas de automatización como n8n, Make o Zapier.
  • Haber trabajado con APIs o construido integraciones entre sistemas.
  • Conocimiento de Python aplicado a análisis de datos o automatización.
  • Familiaridad con herramientas de CRM o email marketing.
  • Experiencia en fintech, banca o servicios financieros.

Beneficios y condiciones

  • 💰 Salario acorde al mercado.
  • ⏰ Modalidad de trabajo híbrida que favorece la conciliación laboral y personal.
  • 🤝 Ambiente inclusivo y diverso, con un fuerte enfoque en la felicidad del equipo.
  • 🎁 Gift Card de regalo para celebrar tu cumpleaños y hacerte sentir especial.
  • 💼 Asesoría financiera exclusiva para colaboradores, apoyando tu crecimiento personal.
  • ✅ Beneficios adicionales gestionados a través de Buk.
  • 🤩 Un día administrativo adicional por semestre para usos personales.
  • 🥳 Tarde libre por cumpleaños y múltiples sorpresas más que aportan a un clima laboral positivo y motivador.
  • 🙌 Acceso a la Caja de Compensación Los Andes.

Además, celebramos continuamente un excelente ambiente de trabajo y orgullosamente ocupamos el 5º lugar en el Ranking Building Happiness de Buk. En Patrimore, creemos firmemente que la felicidad comienza en casa, por eso cuidamos a nuestro equipo con dedicación y compromiso. 🧡

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Patrimore pays or copays health insurance for employees.
Computer provided Patrimore provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Patrimore gives you paid vacations over the legal minimum.
Gross salary $3500 - 4500 Full time
Product Owner – C1do1.AI
  • Training Competence Spa
  • Santiago (Hybrid)
JavaScript Ruby on Rails UX UI Design

Training Competence Spa gestiona C1DO1.ai, una plataforma educativa basada en feedback digital potenciado por IA. Nuestro objetivo es transferir habilidades prácticas de forma remota y asincrónica, mediante una metodología centrada en la repetición de procedimientos: el aprendiz graba su desempeño, se carga a la nube y recibe feedback estructurado de un profesor a través de herramientas digitales. El proceso se repite hasta dominar la habilidad, con un enfoque en aprendizaje medible y resultados reales. Trabajamos en la intersección de educación, tecnología, data e IA, priorizando impacto y mejora continua. Buscamos un Product Owner que lidere la evolución del producto, conectando necesidades de usuarios, negocio y tecnología, con visión de escalabilidad y enfoque data-driven. Trabajarás directamente con el CEO/CTO y el equipo de desarrollo para construir una plataforma robusta, adaptable y centrada en el aprendizaje efectivo.

Apply to this posting directly on Get on Board.

Funciones y responsabilidades

  • Definir y priorizar el backlog del producto alineado a la visión de C1DO1.ai, traduciendo necesidades de usuarios (aprendices, docentes e instituciones) en historias claras y accionables.
  • Gestionar ceremonias Scrum: planificación, daily, revisión y retrospectiva; asegurar entregas con valor para el usuario y el negocio.
  • Tomar decisiones basadas en métricas de producto (activación, retención, engagement, tasa de finalización y loops de feedback).
  • Trabajar con datos y analytics para analizar comportamiento de usuarios, validar hipótesis y medir impacto de nuevas funcionalidades.
  • Colaborar estrechamente con diseño, desarrollo y stakeholders educativos para impulsar mejoras centradas en la experiencia de aprendizaje.
  • Apoyar la definición y mejora continua de flujos de feedback digital e integración de IA.
  • Documentar avances de producto y comunicar de forma clara y efectiva a equipos y ejecutivos.
  • Proponer visión a futuro del producto potenciado con IA

Requisitos y perfil

Experiencia documentada como Product Owner o Product Manager, preferiblemente en startups o productos digitales. Sólido manejo de metodologías Scrum/Agile y experiencia trabajando con herramientas de analytics de producto (GA4, Mixpanel, Amplitude, Metabase, Looker, entre otras). Capacidad para convertir métricas en decisiones y priorización efectiva. Inglés intermedio para lectura de documentación y reuniones puntuales.

Experiencia comprobable en diseño y gestión de soluciones con agentes inteligentes / multiagentes IA, incluyendo su integración, definición de flujos de inferencia y colaboración con equipos técnicos.

Se valorará experiencia en EdTech, HealthTech o productos de aprendizaje, conocimientos básicos de UX/UI y diseño centrado en el usuario.

Conocimientos de programación (Python, react, ruby on rails, uso de APIs de IA/ML, comprensión de pipelines de modelos).

Perfil buscado: mentalidad data-driven, curiosidad, enfoque en impacto, habilidad para priorizar en contextos de incertidumbre, comunicación clara entre perfiles técnicos y no técnicos, autonomía, sentido de ownership y pasión por educación, transferencia de habilidades e IA

Deseables

Experiencia demostrable en proyectos de aprendizaje y plataformas educativas. Familiaridad con herramientas de IA aplicadas a feedback y mejora continua. Trayectoria trabajando en equipos multidisciplinarios y capacidad para impulsar iniciativas desde la concepción hasta la ejecución. Conocimiento de metodologías de diseño centrado en usuario y buenas prácticas de UX/UI.

Beneficios

Rol clave en una startup tecnológica con impacto real en educación. Trabajo directo con fundadores (CEO/CTO). Modalidad híbrida y flexibilidad. Espacio para proponer, experimentar y construir producto desde cero. Proyección de crecimiento profesional a medida que la empresa escala, con foco en aprendizaje práctico y desarrollo de habilidades.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Informal dress code No dress code is enforced.
$$$ Full time
Product Analyst
  • Wherex
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Wherex es una plataforma web de licitaciones industriales en crecimiento, que conecta empresas y proveedores, integrando pagos y gestión inteligente en un ecosistema SaaS+fintech.
En este rol, trabajarás dentro del equipo de Product para construir y operar un sistema de métricas robusto que permita aprender rápido, monitorear objetivos y entregar feedback continuo sobre desempeño.
Colaborarás estrechamente con Producto, Ingeniería y RevOps para alinear métricas con decisiones estratégicas y priorizar iniciativas de alto impacto en una estructura de negocio en expansión en LatAm.

Applications at getonbrd.com.

¿Qué harás en este rol?

  • 📊 Sistema de métricas de producto

Diseñar y evolucionar el framework de métricas (KPIs, OKRs, health metrics) que mida adopción, uso, conversión, performance y crecimiento en un entorno SaaS + fintech.

  • 🔍 Análisis de comportamiento y funnels

Analizar funnels y comportamiento de usuarios para detectar fricciones, oportunidades de optimización y señales tempranas de éxito o riesgo.

  • 🎯 Monitoreo y visibilidad estratégica

Dar seguimiento al cumplimiento de metas de producto, alertando desviaciones y riesgos, entregando visibilidad clara al equipo de Producto, Ingeniería y stakeholders.

  • 📈 Dashboards accionables

Construir dashboards escalables (ej. Power BI) y reportes que traduzcan datos en insights priorizables y accionables.

  • 🚀 Experimentación y MVPs

Apoyar la definición y medición de experimentos y nuevas funcionalidades, asegurando ciclos cortos de aprendizaje.

  • 🤝 Trabajo cross-functional

Colaborar con Producto, Ingeniería, Data, RevOps y áreas de negocio para alinear métricas con decisiones estratégicas.

  • 🧠 Evolución analítica

Proponer mejoras en la forma en que medimos el producto a medida que Wherex crece y complejiza su modelo fintech.

Forma parte de una cultura de trabajo en equipo, colaboración y buena onda, junto a profesionales de alto nivel técnico que te desafían a crecer.

Descripción

Buscamos un/a analista con entre 1 y 3 años de experiencia en roles similares (Product Analyst, Product Ops Analyst, Data Analyst con foco en producto o RevOps).
Formación en Ingeniería Civil, Ingeniería Comercial o carrera afín.
Experiencia trabajando con métricas de producto, análisis de funnels y conocimiento de ingeniería de datos.
Debes ser capaz de moverte entre negocio y tecnología, identificar métricas estratégicas e influir en el roadmap con evidencia.

Requisitos deseables

Conocimiento en análisis de datos avanzados, experiencia con herramientas de visualización avanzadas, y capacidad para trabajar con equipos distribuidos.
- Conocimiento deseable en:

SQL
Python
Power BI

Se valora orientación a resultados, pensamiento crítico y habilidades de comunicación para traducir datos complejos en insights claros para stakeholders.
Capacidad de gestionar prioridades en un entorno dinámico y enfocado en crecimiento.

Beneficios

🏖️ Días adicionales de descanso para equilibrar vida personal y trabajo.
🏥 Seguro complementario de salud para bienestar continuo.
⌚ Flexibilidad horaria que favorece autonomía y gestión del tiempo.
😷 Licencia médica pagada durante dos días para apoyo en momentos de menor salud.
😎 Trabajo híbrido que combina autonomía con colaboración presencial.
📍 Ubicación: Las Condes, Santiago.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Wherex pays or copays health insurance for employees.
Computer provided Wherex provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Wherex gives you paid vacations over the legal minimum.
Beverages and snacks Wherex offers beverages and snacks for free consumption.
Gross salary $1800 - 3000 Full time
Jefe de Proyecto
  • Microsystem
  • Santiago (Hybrid)
Python Agile Virtualization Project Manager

🚀 ¡En Microsystem Lab buscamos a nuestro próximo Jefe de Proyectos! 💡
Somos el partner tecnológico que las empresas necesitan para estar dentro de la vanguardia tecnológica. Co-creamos soluciones donde la IA, el Desarrollo de Software y los Datos convergen.

Buscamos a un Jefe de Proyecto que sea el pilar de comunicación de nuestros proyectos. Necesitamos a alguien expresivo, que entienda que una comunicación clara y constante es el pilar fundamental para la realización de un buen proyecto. Le tiene que apasionar la computación, debe entender la lógica técnica de lo que construimos (desde arquitecturas multi-agentes y RAGs hasta Data Lakehouses en AWS) y traducir este mundo complejo tanto al equipo como al cliente.

Si te apasiona estar "sobre la ola" de la vanguardia tecnológica, estás orientado a compromisos y sabes mover las piezas necesarias para que el equipo llegue a la meta en la fecha pactada, ¡queremos que seas parte de nuestro equipo! 💪

Apply directly through getonbrd.com.

Responsabilidades del Puesto

  1. *Comunicación como Eje Central *🗣️: Liderar la comunicación del proyecto de forma expresiva y constante, asegurando que el cliente y el equipo estén siempre alineados y sin puntos ciegos.
  2. *Gestión de Compromisos y "Enforcer" de Plazos *⏱️: Velar por el cumplimiento de las fechas. Tu misión es asegurar que los hitos se alcancen, empujando al equipo con liderazgo para cumplir los compromisos adquiridos.
  3. *Gestión Híbrida de Proyectos* 🔄: Orquestar el trabajo usando metodologías ágiles para el desarrollo interno y metodologías convencionales para el control de hitos y reportabilidad estratégica hacia el cliente.
  4. *Traducción Técnica y Consultoría* 💻: Entender qué estamos haciendo a nivel de código y arquitectura para gestionar expectativas reales y proponer soluciones valiosas.
  5. *Gestión de Stakeholders (Cliente + Equipo)* 🤝: Actuar como el puente de confianza, gestionando la presión externa y motivando al equipo técnico hacia la excelencia en el delivery.

Funciones del cargo

Requisitos Técnicos (Hard Skills)

  • Formación: Ingeniería en Computación, Civil, Industrial o carrera afín con fuerte base tecnológica.
  • Experiencia: 2+ años gestionando proyectos de software, IA o datos.
  • Pasión por la Computación: Debes conocer conceptos como GenIA, RAGs, Python, Cloud (AWS) y pipelines de datos. No programarás, pero sí debes entender y disfrutar la conversación técnica.
  • Metodologías: Dominio de Scrum/Kanban y gestión tradicional (Gantt, ruta crítica).
  • Herramientas: Jira, Project y sistemas a fines.

Requisitos Interpersonales (Soft Skills)

  • Comunicador Nato: Capacidad expresiva sobresaliente, asertividad y proactividad.
  • Orientación al Delivery: Enfoque en el cumplimiento de fechas y resultados de calidad.
  • Liderazgo de Ejecución: Capacidad para tomar el mando, inspirar responsabilidad en el equipo y que se orienten a los resultados sin perder la colaboración.

Suma puntos

  • Certificaciones Oficiales: PMP (PMI), CSM (Certified Scrum Master) o certificaciones en metodologías ágiles a escala.
  • Dominio de CRISP-DM: Entender el ciclo de vida de un proyecto de ciencia de datos es un plus gigante para hablar el mismo idioma que el equipo Lab.
  • Inglés Intermedio/Avanzado: Capacidad para leer documentación técnica y, eventualmente, interactuar con partners o clientes internacionales.
  • Experiencia en Consultoría: Haber trabajado directamente con clientes externos de industrias como Banca, Retail, Pesca o Salud (nuestros sectores fuertes).
  • Manejo de herramientas de visualización: Si sabes moverte en Power BI, Tableau o Looker Studio para presentar resultados, nos encantará.
  • Conocimiento en Nube: Estar familiarizado con el ecosistema AWS (nuestra base) o Azure.

Lo Que Ofrecemos

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Shopping discounts Microsystem provides some discounts or deals in certain stores.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
Gross salary $2500 - 3500 Full time
Technical Product Manager
  • ICASS SpA.
  • Santiago (Hybrid)
JavaScript Python Front-end Node.js
ICASS SpA es una empresa de consultoría en recursos hídricos que lidera proyectos de monitoreo ambiental y gestión de recursos hídricos para sectores industriales como minería y sanitaria. Nuestro objetivo es entregar estudios, servicios y soluciones que integren tecnología y medio ambiente para mejorar la toma de decisiones y la operación sostenible de sistemas de agua. El equipo está enfocado en desarrollar plataformas de analítica y visualización de datos que permitan a clientes monitorizar, analizar y optimizar sus recursos hídricos en tiempo real, con impacto directo en el desempeño ambiental y regulatorio de sus operaciones. Buscamos consolidar una plataforma tecnológica escalable que combine datos estructurados y no estructurados, interfaces intuitivas y procesos de automatización para acelerar la entrega de valor a nuestros clientes y respaldar decisiones estratégicas en agua y medio ambiente.

Apply directly at getonbrd.com.

Funciones clave

  • Liderar el equipo de desarrollo y planificar ciclos de trabajo, priorizando entregas de valor y calidad.
  • Diseñar y construir plataformas de visualización de datos para monitoreo ambiental y recursos hídricos, con UX centrada en el usuario y dashboards escalables.
  • Optimizar procesos internos de datos, métricas y automatización para acelerar la entrega de soluciones y mejorar la gobernanza de datos.
  • Desarrollar soluciones para análisis de datos hidrológicos, integrando fuentes diversas (sensores, bases de datos, archivos y servicios en la nube).
  • Arquitectar soluciones tecnológicas robustas: servicios, APIs, pipelines de datos y componentes reutilizables.
  • Colaborar en la definición de la estrategia de crecimiento de la plataforma, alineando tecnología con objetivos de negocio y sostenibilidad.
  • Mentorear a desarrolladores, fomentar buenas prácticas de CI/CD, pruebas y revisión de código; impulsar cultura de innovación y mejora continua.
  • Interactuar con clientes y otros equipos para entender requerimientos, gestionar expectativas y asegurar la entrega de valor.

Requisitos y perfil

Buscamos un/a Ingeniero Civil en Informática (o carrera afín) con al menos 2 años de experiencia en desarrollo de software y un perfil técnico y estratégico, capaz de ir más allá del código. Viniste para liderar, proponer soluciones y escalar una plataforma que interviene en decisiones de uso del agua y medio ambiente.
  • Conocimiento avanzado en React, Python, SQL y/o Node.js.
  • Experiencia en arquitectura de sistemas, CI/CD (Docker, GitHub) y AWS.
  • Capacidad para diseñar soluciones de visualización de datos y trabajar con datos no estructurados.
  • Habilidad para gestionar proyectos, gestionar stakeholders y trabajar de forma autónoma y proactiva.
  • Interés en datos ambientales y desarrollo de negocio, con orientación a resultados y impacto real.
  • Excelente comunicación y capacidad para liderar equipos multidisciplinarios.

Requisitos deseables

Experiencia previa en proyectos con clientes, manejo de datos no estructurados, y experiencia en entornos de minería o sectores intensivos en agua. Conocimiento en técnicas de analítica avanzada, ML básico para predicciones, y familiaridad con herramientas de visualización adicionales (por ejemplo, Tableau, Power BI) será valorado. Perfil proactivo, orientado a negocio y capacidad para influir en decisiones estratégicas de la empresa.

Beneficios

Modalidad híbrida, con oficina a pasos del Metro Tobalaba. Ambiente laboral colaborativo y multidisciplinario, seguro complementario de salud, Caja de Compensación Los Andes, incentivos por cumplimiento de objetivos y herramientas tecnológicas necesarias para el desempeño. Renta acorde al mercado y oportunidades de desarrollo profesional en tecnología + medio ambiente. Ofrecemos un entorno donde no solo desarrollas software, sino que también influyes en la toma de decisiones sobre el uso del agua y el medio ambiente. Invitamos a postular y formar parte de un equipo que genera impacto real.

Life insurance ICASS SpA. pays or copays life insurance for employees.
Computer provided ICASS SpA. provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Jefe/a de Cotizaciones
  • BNP Paribas Cardif
  • Santiago (Hybrid)
C Python Excel SQL

BNP Paribas Cardif es una empresa multinacional de seguros, con presencia en más de 70 países. BNP Paribas Cardif es líder mundial en alianzas de bancaseguros, ofreciendo a sus más de 80 millones de clientes productos y servicios que les permiten alcanzar sus objetivos

Hoy BNP Paribas Cardif busca un(a) Jefe(a) de Cotizaciones responsable de asegurar el cumplimiento de la política de rentabilidad/riesgo en las propuestas comerciales que se entregan a los socios. Deberás cumplir y considerar el respeto del procedimiento de decisión de la Compaña, a nivel local como con Casa Matriz.

Send CV through Get on Board.

Funciones del cargo

· Facilitar el desarrollo comercial, apoyar al equipo comercial en sus relaciones con los socios. Mantener y desarrollar el “valor agregado” técnico de Cardif Chile.

· Asegurar la fiabilidad de las herramientas utilizadas para la cotización y la renovación.

· Actualizar y documentar las bases técnicas (riesgo/gasto).

· Definición y aplicación de la política de reaseguro de la Compañía.

· Cotizar el 100% de los productos dentro de los planes estratégicos, con un nivel de delegación propia.

· Optimizar los plazos y la gestión de prioridades de la política de cotización.

· Organizar y definir el reporting hacía Casa Matriz, asegurándose que sean conocidas las reglas y metodologías locales.

· Organizar el trabajo del equipo, planificar las tareas, anticipar los problemas, garantizar que se cumplan los compromisos internos.

Requerimientos del cargo

IV.- Formación, Experiencia y Conocimientos Requeridos

a. Formación

Ingeniero Civil Industrial, Actuario, Ingeniero Comercial u otro profesional afín con habilidades matemáticas y comunicacionales.

b. Experiencia Requerida

  • Tipo de experiencia: cotización de productos asociados a bancaseguros o productos relacionados. Deseable experiencia en temas técnicos/actuariales.
  • Tipo de industria: seguros o servicios financieros.
  • Tiempo: 3 años mínimo.

c. Conocimientos y Habilidades

  • Manejo de MS Office, nivel avanzado, especialmente Excel.
  • Manejo de programación en SAS, Python o SQL
  • Manejo de inglés, nivel intermedio/avanzado.

· Conocimientos técnicos / actuariales.

· Conocimientos de productos del mercado asegurador / reasegurador.

· Habilidades en manejo de personas.

· Habilidades de resolución/prevención de conflictos.

  • Alta capacidad de sintesis y análisis.
  • Orientación a resultados.
  • Capacidad de transmitir experiencias.

Condiciones

¿Cuáles son los beneficios y ventajas de trabajar con nosotros?

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • ¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.
  • Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.
  • Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage BNP Paribas Cardif pays or copays health insurance for employees.
Computer provided BNP Paribas Cardif provides a computer for your work.
Informal dress code No dress code is enforced.
Gross salary $2500 - 3000 Full time
Data Engineer (Bilingüe)
  • Adecco
  • Santiago (Hybrid)
Java Python Analytics SQL

Somos Adecco Chile, la filial local del líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en el país y una sólida trayectoria apoyando a empresas en su gestión de talento. Adecco Chile está comprometida con ofrecer soluciones integrales y personalizadas, destacándose en áreas como Selección de Personal, Staffing, Payroll Services y Training & Consulting. Nuestro equipo trabaja con altos estándares de calidad, respaldados por la certificación ISO 9001:2015, y con presencia en las principales ciudades del país. Actualmente, buscamos incorporar un Data Engineer para un proyecto estratégico de un cliente que involucra la construcción y optimización de pipelines de datos en cloud, con especial foco en tecnologías Google Cloud Platform y arquitecturas modernas de procesamiento y orquestación.

This company only accepts applications on Get on Board.

Responsabilidades y Funciones Principales

En esta posición, el Data Engineer tendrá como objetivo principal diseñar, implementar y mantener pipelines de datos robustos y escalables para soportar las necesidades de inteligencia de negocio y análisis avanzado. Trabajará estrechamente con equipos de Data Science, BI y desarrollo para asegurar que los flujos de datos estén optimizados y disponibles para los diferentes consumidores.
  • Diseñar y desarrollar pipelines de ingesta, procesamiento y distribución de datos en la nube, utilizando tecnologías de Google Cloud Platform y frameworks open source.
  • Gestionar entornos de desarrollo para asegurar la reproducibilidad y escalabilidad con herramientas como venv, pip y poetry.
  • Implementar orquestadores de workflows como Cloud Composer (Airflow) y plataformas de AI pipelines para automatizar procesos de data engineering.
  • Optimizar el rendimiento de los clusters y pipelines de datos, tanto batch como streaming, aplicando conocimientos avanzados de Apache Spark, Apache Beam o Apache Flink.
  • Aplicar técnicas de feature engineering y gestión avanzada de datos para maximizar el valor analítico.
  • Administrar almacenamiento y bases de datos en GCP, como CloudSQL, BigQuery, Cloud Bigtable, Cloud Spanner y bases de datos vectoriales.
  • Coordinar la integración de microservicios y mensajería en tiempo real mediante Pub/Sub, Kafka y Kubernetes Engine.
  • Asegurar que los procesos CI/CD para pipelines de datos estén correctamente implementados con herramientas como GitHub, Jenkins, GitLab y Terraform.
  • Participar en el diseño y escalabilidad de arquitecturas distribuidas, garantizando la resiliencia y optimización del uso de recursos cloud.

Requisitos y Competencias

Buscamos profesionales con conocimientos sólidos y experiencia comprobable en el área de ingeniería de datos, con capacidad para trabajar en entornos dinámicos y multidisciplinarios. Es fundamental tener un dominio avanzado de la programación, experiencia práctica en la nube, y un amplio entendimiento de las arquitecturas modernas de datos.
  • Dominio del inglés, tanto escrito como verbal, para comunicación efectiva dentro de equipos y documentación técnica.
  • Experiencia avanzada en lenguajes de programación Python y Java, aplicados en el desarrollo y mantenimiento de pipelines de datos.
  • Experiencia práctica en entornos cloud, preferentemente Google Cloud Platform (GCP), utilizando servicios como CloudSQL, BigQuery, Cloud Storage, Pub/Sub, Cloud Functions y Kubernetes Engine.
  • Conocimiento profundo en manejo de contenedores Docker y gestión de entornos virtuales con herramientas como venv, pip y poetry.
  • Amplia experiencia en orquestación de workflows con Airflow, Vertex AI pipelines u otros orquestadores equivalentes.
  • Competencia en técnicas de ingeniería de datos, feature engineering, y frameworks de procesamiento distribuido en Batch y Streaming como Apache Spark, Apache Beam o Apache Flink.
  • Dominio avanzado de SQL y conceptos de streaming (windowing, triggers, late arrival) para estructurar y manipular datos en tiempo real.
  • Experiencia en integración continua y despliegue continuo (CI/CD) con herramientas como GitHub, Jenkins, GitLab, y conocimientos en infraestructura como código usando Terraform.
  • Capacidad para diseñar arquitecturas de datos distribuidas y optimizadas, con comprensión de criterios para selección de opciones de almacenamiento y cómputo.
  • Habilidades analíticas y mentalidad de negocio para interpretar el uso de los datos en procesos de Business Intelligence y Analítica avanzada.

Competencias Deseables

  • Experiencia práctica en sistemas distribuidos, escalables y resilientes.
  • Experiencia laboral en diseño y arquitectura de soluciones de datos end-to-end que incluyan transacciones y múltiples fuentes basadas en APIs.
  • Buen entendimiento de estrategias para la optimización de rendimiento en clusters y pipelines de datos.
  • Exposición a tecnologías GCP para pipelines de datos de extremo a extremo.
  • Experiencia con Kubernetes para orquestación y administración de contenedores a gran escala.
  • Experiencia con bases de datos vectoriales, en particular Qdrant, para casos avanzados de búsqueda y análisis.

¿Qué ofrecemos?

- Un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional.
- Oportunidad de formar parte de un equipo altamente cualificado y profesional en nuestro cliente
- Formación continua para mantenerte actualizado en las tecnologías más modernas.
- Oportunidades claras de crecimiento dentro de la empresa y el sector tecnológico.
- Contrato inicialmente a plazo fijo, con posibilidad de pasar a indefinido con el cliente final.
- Modalidad híbrida de trabajo: 1 días presencial en oficina y 4 días remoto.

Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL Big Data Data Warehouse

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

© Get on Board.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
$$$ Full time
Data Management
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence

Banco Santander Chile es una institución financiera líder en el país, reconocida por su enfoque en ayudar a personas y empresas a progresar mediante soluciones innovadoras y personalizadas. El área de banca comercial se dedica a diseñar y ejecutar estrategias comerciales que optimizan la rentabilidad de la cartera de clientes, utilizando tecnología avanzada para la gestión de datos y el desarrollo de herramientas propias que potencian la toma de decisiones y la experiencia del cliente.

Este equipo trabaja en la constante búsqueda y aplicación de nuevas tecnologías para mejorar las acciones comerciales y asegurar que las iniciativas estén disponibles y sean efectivas en los diferentes canales digitales y presenciales del banco.

This job is available on Get on Board.

Responsabilidades principales

Como data management, tus responsabilidades incluirán:

  • Participar en la generación de fuentes de información con los distintos atributos y variables calculadas.
  • Automatizar el despliegue de las acciones comerciales con los distintos actores de canales del banco.
  • Recomendar nuevas tecnologías para mejorar el despliegue y la búsqueda de nuevas acciones de las campañas dentro del equipo de inteligencia comercial.
  • Coordinar y desplegar las ofertas y/o campañas a los distintos canales del banco Santander.
  • Automatizar el despliegue de los Journeys (con Salesforce Marketing Cloud y Adobe Experience Platform - AJO) en base a los distinto eventos de nuestros clientes.

Perfil y experiencia requerida

Buscamos profesionales con experiencia en programación orientada a la gestión comercial en el sector financiero o afines. Se valoran conocimientos sólidos en análisis de datos, manejo de bases de datos y desarrollo de software aplicado a procesos comerciales.

Entre las habilidades técnicas y competencias destacan:

  • Experiencia en lenguajes de programación y explotación de datos, de al menos, 1 año.
  • SQL avanzado
  • Python avanzado en análisis de datos
  • Manejo de Tableau
  • Manejo de Power BI
  • Proactividad en la búsqueda constante de innovación tecnológica aplicable a la función.

Se valoran además habilidades blandas como la adaptación al cambio, resiliencia, y pensamiento crítico orientado a la mejora continua.

Conocimientos y experiencia complementarios

Será un plus contar con experiencia previa en bancos o instituciones financieras y manejo de herramientas como SalesForce Marketing Cloud y AJO de Adobe Experience Platform . Conocimientos en metodologías ágiles para proyectos de desarrollo tecnológico también serán bien valorados.

Habilidades adicionales en visualización de datos, para impulsar la innovación en las acciones comerciales serán una ventaja competitiva.

Beneficios y oportunidades de crecimiento

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
Gross salary $4850 - 7000 Full time
Java Python Analytics SQL

Krunchbox is transforming retail analytics with our next-generation platform (Krunchbox 2.0). We are migrating from 800 hardcoded ETLs to a modern, real-time analytics architecture powered by ClickHouse. This greenfield initiative aims to architect the analytical backbone for 100+ enterprise clients while maintaining and optimizing our existing SQL Server infrastructure during the transition. The Senior Database Engineer/Architect will lead the database transformation and operations across both legacy and modern systems, owning the analytical data layer, and delivering a scalable, multi-tenant ClickHouse architecture alongside ongoing SQL Server maintenance.

Find this job on getonbrd.com.

Key Responsibilities

  • ClickHouse Implementation (New Architecture): take over from initial consulting work to build production ClickHouse system; design and implement multi-tenant architecture with partition isolation; migrate from SQL Server to ClickHouse optimizing for columnar storage; create materialized views for KPI calculations and dashboards; implement data retention policies and TTL strategies; optimize query performance for complex analytical workloads; design backup, recovery, and high-availability strategies.
  • SQL Server Management (Legacy Systems): maintain and optimize existing SQL Server infrastructure during transition; lead ETL modernization from 800 hardcoded processes to automated pipelines; perform database performance tuning and troubleshooting; manage legacy architecture decisions and technical debt; ensure data integrity and availability during migration; optimize existing queries and stored procedures.
  • Leadership & Architecture: provide database leadership across legacy and modern platforms; mentor on SQL and ClickHouse best practices; design migration strategies minimizing downtime and risk; collaborate with development teams on data architecture decisions; create documentation and best practices for a hybrid database environment; lead knowledge transfer and retention efforts during transition.
  • Collaboration & Delivery: work closely with existing team members to ensure continuity and minimize disruption; partner with Event Hubs team for real-time data ingestion; contribute to roadmap and architecture decisions that support scalable analytics for 100M+ rows daily across tenants.

What you’ll bring

Required Qualifications

  • ClickHouse Expertise: 3+ years of production ClickHouse experience; strong background with large-scale migrations from relational to columnar databases; deep understanding of ClickHouse internals (MergeTree engines, partitioning, sharding); expertise in materialized views, projections, and aggregation optimizations; experience with ClickHouse Cloud or managing ClickHouse clusters.
  • SQL Server & Traditional DB Skills: 5+ years of SQL Server production experience in enterprise environments; expert-level SQL programming and query optimization; experience with ETL pipeline design and optimization; database administration including backup, recovery, and performance tuning; experience leading migrations and modernization projects.
  • General Qualifications: proficiency in SQL and ClickHouse-specific extensions; experience with multi-tenant data architectures; strong problem-solving capabilities for complex data challenges; excellent cross-team communication.

Preferred Qualifications

  • Experience with Azure Event Hubs or Kafka integration; knowledge of CDC patterns and real-time data synchronization; retail or e-commerce analytics domain experience; experience with time-series data and IoT workloads; contributions to ClickHouse community or open source; experience with Azure SQL Database and cloud migrations; familiarity with Python/FastAPI for database integration; knowledge of data warehousing and OLAP concepts.

Desirable but not required

Desirable but not required skills:

  • Hands-on experience in modern data platforms and cloud-native architectures; prior leadership role in data platform transformations; experience with multi-region deployments and governance; ability to translate business requirements into scalable data models; passion for scalable performance optimization and data quality.

Benefits

  • Competitive compensation package.
  • Local health coverage (if required)
  • Opportunity to scale and lead a global SaaS platform that solves real-world customer challenges.
  • A direct, impactful role in shaping the future of AI-powered supplier-retailer collaboration.

Fully remote You can work from anywhere in the world.
Health coverage Krunchbox pays or copays health insurance for employees.
Computer provided Krunchbox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Krunchbox gives you paid vacations over the legal minimum.
Gross salary $1500 - 2000 Full time
Data Scientist
  • Artefact LatAm
Python Analytics Git Data Analysis

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply to this job without intermediaries on Get on Board.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $1500 - 2000 Full time
Analytics Engineer
  • Artefact LatAm
Analytics MySQL SQL Business Intelligence

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply at the original job on getonbrd.com.

Tus responsabilidades serán:

  • Recolectar y analizar datos de diversas fuentes para identificar patrones y tendencias. Extraer insights significativos para comprender el rendimiento presente y futuro del negocio.
  • Crear modelos de datos adaptados a distintos proyectos y sectores.
  • Crear y optimizar informes, paneles y cuadros de mando para una presentación efectiva de la información, utilizando herramientas de BI como Tableau, Power BI o QlikView.
  • Identificar oportunidades de mejora de procesos mediante análisis de datos.
  • Mantener y actualizar bases de datos para garantizar su integridad y calidad.
  • Brindar formación y soporte al equipo en el uso de herramientas de Business Intelligence. Colaborar con equipos diversos para crear soluciones integrales. Entender las necesidades del cliente y proponer mejoras y soluciones proactivas.
  • Monitorear modelos de data science y machine learning. Mantener la calidad de datos en flujos de información. Gestionar la seguridad y la escalabilidad de entornos cloud de BI.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, o carrera afín
  • 1 a 2 años de experiencia laboral en:
    • Proyectos BI
    • Herramientas de visualización como PowerBI, Tableau, QikView u otros
    • Soluciones de BI en entornos cloud (ejemplo, Azure y Power BI Service)
    • Fuentes de datos (SQL Server, MySQL, API, Data Lake, etc.)
    • Desarrollo de queries en SQL
    • Desarrollo de modelos de datos para usos analíticos y programación de ETLs
  • Inglés profesional

Algunos deseables no excluyentes:

  • Conocimiento de Python o R
  • Manejo de Big Data en miras de establecer reportería

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Gross salary $2500 - 3200 Full time
Python Data Analysis English Data Visualization

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply directly on Get on Board.

Tus responsabilidades serán:

  • Realizar investigaciones exhaustivas y análisis de información relevante para el proyecto.
  • Desarrollar diagnósticos y proponer soluciones adaptadas a las necesidades específicas de cada cliente, utilizando un enfoque analítico y estratégico.
  • Crear entregables innovadores y orientados a resultados, con un enfoque en la transformación digital.
  • Aplicar rápidamente el aprendizaje adquirido de diversas industrias y herramientas para abordar los desafíos de cada cliente.
  • Presentar de manera efectiva los hallazgos y resultados del proyecto, adaptándose a las necesidades de los stakeholders del cliente.
  • Contribuir a la elaboración de propuestas para potenciales clientes, mediante un análisis detallado de la industria y la identificación de soluciones adecuadas.
  • Construir y mantener relaciones sólidas con los clientes, actuando como un socio estratégico en su camino hacia el éxito.
  • Apoyar al equipo en la planificación estratégica y en la transferencia de conocimientos y mejores prácticas.

Los requisitos del cargo son:

  • Titulación en Ingeniería Civil Industrial, Ingeniería Industrial, Economía o áreas afines.
  • Experiencia laboral mínima de 4 a 6 años en consultoría o roles relacionados.
  • Dominio avanzado de herramientas de Office y/o Google.
  • Pensamiento Analítico: Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.
  • Conocimiento profundo de diversas herramientas y soluciones digitales.
  • Inglés fluido para comunicarse oralmente con los clientes.

Algunos deseables no excluyentes:

  • Deseable experiencia en programación en Python y uso de herramientas de visualización como PowerBI o Tableau.
  • Conocimiento o nociones de Data Science.

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Outdoors The premises have outdoor spaces such as parks or terraces.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Analista de Datos / Business Intelligence
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Data Analysis Excel
En BC Tecnología somos una consultora de TI que acompaña a clientes de sectores financieros, retail, tecnológico y público. Buscamos un/a Analista de Datos / Business Intelligence para transformar datos en insights que orienten decisiones estratégicas. Trabajarás en proyectos de alto impacto dentro de equipos interdisciplinarios, implementando soluciones de analítica y BI que faciliten la toma de decisiones en clientes de alto nivel. Formarás parte de una organización con enfoque en metodologías ágiles, formación de equipos y desarrollo de productos, con un portfolio de servicios que incluye consultoría, outsourcing y desarrollo de proyectos.

Apply at getonbrd.com without intermediaries.

Principales Responsabilidades

  • Transformar datos en información clara y accionable mediante análisis estadístico, modelado y visualización.
  • Recopilar, analizar y transformar datos de distintas fuentes para generar insights de negocio.
  • Diseñar y desarrollar reportes, dashboards e indicadores clave (KPIs) en Power BI u otras herramientas de visualización.
  • Aplicar técnicas de análisis estadístico y exploración de datos para detectar tendencias, patrones y oportunidades de mejora.
  • Colaborar con equipos de negocio, BI y tecnología para definir métricas relevantes.
  • Asegurar la calidad, integridad y consistencia de los datos; documentar procesos y estructuras de datos.
  • Mantenerse actualizado/a en herramientas de analítica, visualización y ciencia de datos; cumplir con políticas de seguridad y cumplimiento.

Requisitos y Perfil

Formación: Ingeniería, Estadística, Economía, Ciencia de Datos, Administración u afines. Experiencia: mínimo 2 años en roles de Análisis de Datos, Inteligencia de Negocio o Control de Gestión.
Conocimientos Técnicos clave:
  • Modelado de datos y definición de KPIs.
  • Power BI (modelado, DAX, visualizaciones).
  • SQL (consultas y optimización).
  • Python y Power Automate.
  • Excel avanzado.
  • Conocimientos en estadística descriptiva e inferencial aplicada a negocio.
  • Experiencia en limpieza y transformación de datos.
Competencias blandas: pensamiento analítico, orientación a resultados, comunicación efectiva y capacidad para trabajar en equipos multidisciplinarios en entornos ágiles.

Deseables

Experiencia en proyectos de BI en el sector financiero o público; conocimiento de herramientas de visualización adicionales; experiencia en automatización de procesos y manejo de grandes volúmenes de datos; habilidad para traducir requerimientos de negocio en soluciones técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $2000 - 2600 Full time
DBA Oracle
  • Coderslab.io
Python SQL Oracle Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).
Habilidades:
- Competencia avanzada en administración de bases de datos Oracle, incluyendo versiones recientes (Oracle 19c o superior).
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM (Automatic Storage Management), y Oracle Multitenant.
- Experiencia en Oracle Cloud Infrastructure (OCI) y otras nubes públicas, como Azure o AWS (deseable).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- Conocimientos en PLSQL y tunning a sentencias SQL

Condiciones

Disponibilidad: Inmediata.
Horario de Chile

Fully remote You can work from anywhere in the world.
Gross salary $1000 - 1400 Full time
Data Analyst
  • Coderslab.io
  • Lima (Hybrid)
HTML5 Python Data Analysis SQL

CodersLab es una empresa dedicada al desarrollo de soluciones dentro del rubro IT y actualmente nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Analyst

Buscamos un/a Data Analyst para unirse a nuestro equipo y participar en el desarrollo de aplicaciones móviles escalables, modernas y de alto impacto. Trabajarás en un entorno colaborativo, con proyectos desafiantes y oportunidades reales de crecimiento.

© getonbrd.com. All rights reserved.

Funciones del cargo

  • Desarrollo de funcionalidad de gestión del canal con python y html5.
  • Documentación funcional de los desarrollos.
  • Carrera sistemas o relacionados.
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.
  • Recopilar y limpiar datos: Obtener datos de diversas fuentes (bases de datos, redes sociales, hojas de cálculo, etc.) y luego limpiarlos, procesando valores faltantes, corrigiendo errores y eliminando inconsistencias para asegurar su calidad.
  • Analizar datos: Utilizar técnicas estadísticas y otras herramientas para identificar correlaciones, tendencias y patrones dentro de los conjuntos de datos.
  • Interpretar resultados: Analizar los resultados del análisis para entender qué significan y cómo pueden ayudar a la empresa a tomar mejores decisiones.
  • Comunicar hallazgos: Presentar los resultados del análisis de forma clara y comprensible a través de informes, paneles (dashboards) y visualizaciones (gráficos, tablas) para stakeholders y otros equipos.
  • Identificar riesgos y oportunidades: Detectar tendencias, problemas potenciales y oportunidades de crecimiento para la empresa.
  • Apoyar la toma de decisiones: Facilitar la toma de decisiones estratégicas en diferentes áreas de la organización, como ventas, inventario y gestión de servicios.
  • Crear informes y dashboards: Generar informes periódicos y dashboards interactivos que se actualizan automáticamente para mantener a todos informados.

Requerimientos del cargo

Experiencia entre 2 y 3 años

  • Experiencia en SQL Server
  • Experiencia en Python
  • Experiencia en BigQuery
  • Experiencia en Gitlab
  • Experiencia en ETLs
  • Experiencia en HTML5
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.

Condiciones

Modalidad de contratación: Recibo por honorarios
Duración del proyecto: 6 meses
Modalidad: Hibrida (3 veces a oficina)

$$$ Full time
HTML5 Python Data Analysis SQL
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un Data Analyst para formar parte de un proyecto estratégico de Migración Digital enfocado en evolucionar el canal digital del cliente BFPE. Participarás en el desarrollo, documentación y mejora continua de funcionalidades para una nueva plataforma web, como parte de la migración desde Telegestor APK. El rol combina desarrollo, transformación de datos y optimización de procesos para entregar un canal digital robusto y escalable.
El proyecto implica trabajo conjunto con equipos técnicos y funcionales para asegurar requisitos, calidad y despliegues eficientes. Serás parte de un equipo ágil, con enfoque en innovación y mejora continua, contribuyendo a una migración exitosa que impacta directamente la operación digital.

This posting is original from the Get on Board platform.

Funciones

  • Desarrollar nuevas funcionalidades para el canal digital utilizando Python y HTML5.
  • Participar en la transformación de datos y construcción de pipelines ETL.
  • Analizar, diseñar y documentar especificaciones técnicas y funcionales.
  • Implementar consultas y procesos de explotación de datos en SQL Server y BigQuery.
  • Gestionar control de versiones y despliegues con GitLab.
  • Colaborar con equipos técnicos y funcionales para asegurar el cumplimiento de los requisitos.
  • Participar en pruebas, validaciones y despliegue de mejoras.
  • Proponer mejoras que fortalezcan la plataforma digital.

Descripción

Buscamos un Data Analyst con 2 a 3 años de experiencia en roles similares, con capacidad para trabajar en un entorno regulado y centrado en datos. Requisitos técnicos demostrables: SQL Server, Python, BigQuery, ETLs, GitLab y HTML5. Se valorará experiencia en banca, finanzas o industrias altamente reguladas. El/la candidata ideal será analítico/a, orientado/a a la calidad de datos, con habilidades para documentar y comunicar hallazgos de manera clara, y capaz de colaborar eficazmente con equipos multifuncionales. Se ofrece una modalidad híbrida en Lima y la posibilidad de participar en un proyecto estratégico con impacto directo en el canal digital del cliente, dentro de un entorno de aprendizaje y desarrollo continuo.

Deseable

Experiencia previa en proyectos de migración de plataformas digitales y en entornos de alta seguridad de información. Conocimiento de herramientas de visualización (Power BI, Tableau) y metodologías ágiles. Experiencia en integración de datos entre sistemas legados y plataformas modernas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Ingeniero de Datos Middle
  • BICE VIDA
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

This job is published by getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un/a Ingeniero/a de Datos Middle para integrarse al COE de Datos e IA, perteneciente a la Gerencia de Planificación y Gobierno de Datos.

🚀 Objetivo del cargo

Apoyar en el diseño e implementación de soluciones tecnológicas asociadas al manejo de datos que permitan fomentar el uso y la toma de decisiones basadas en datos a nivel compañía. a

Se espera que pueda liderar iniciativas dentro de la misma índole (datos) con el apoyo de un Ingeniero de Datos Senior o del Líder de Datos. Aplicar buenas prácticas de arquitectura y gobernanza, y colaborar con áreas de negocio, analítica y TI para habilitar un ecosistema de datos moderno, escalable y seguro ☁️📊

🔍 Principales funciones:

  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Asegurar el correcto uso de los servicios AWS en términos de usabilidad y costos.
  • Diseñar e implementar soluciones automatizadas que consideren los lineamientos de arquitectura y ciberseguridad de la compañía

✨ Si te motiva trabajar con datos, tecnología y generar impacto en el negocio, ¡te invitamos a postular y ser parte de BICE Vida!

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 3 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas y 2 años en AWS.
  • Conocimiento y experiencia trabajando en AWS (Intermedio o avanzado): A nivel práctico, no sólo académico, servicios como: Lambda Function, Glue Jobs (Spark y PythonShell), Glue Crawlers, DMS, Athena, Lake Formation, EventBridge, Step Functions.
  • Experiencia y conocimento en Herramientas de consulta de datos (SQL Intermedio o Avanzado y Python Intermedio o Avanzado) y versionamiento de códigos fuentes.
  • Participación en proyectos relacionados a datos ( Ingeniero de Datos p Analista de Datos trabajando en modelamiento de datos).

✨Sumarás puntos si cuentas con:

  • Terraform
  • Spark
  • Tableau
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
$$$ Full time
Ingeniero de Datos
  • BICE VIDA
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Applications at getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Ingeniero de Datos Junior para desempeñarse en el COE de Datos, perteneciente a la Gerencia de Planificación y Gobierno de Datos.
🧭 El objetivo del cargo es apoyar la construcción, mantenimiento y mejora de los procesos que permiten que los datos lleguen limpios, ordenados y disponibles para que la organización pueda analizarlos y tomar buenas decisiones.
💡Tendrás la oportunidad contribuir aprendiendo y aplicando buenas prácticas, colaborando con ingenieros senior y equipos de negocio, y asegurando que los datos fluyan de forma segura, confiable y eficiente dentro de la plataforma de datos📊.

📋 En este rol deberás:
  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Comprender conceptos fundamentales de ETL/ELT.
  • Validación básica de datos.
  • Identificar errores en ejecuciones o datos.

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 1 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas.
  • Experiencia trabajando en alguna nube (AWS, GCP, Azure)
  • Conocimiento en herramientas de consulta de datos, tales como SQL y Python (nivel intermedio).
  • Participación en proyectos relacionados a datos, independiente de la tecnología utilizada.

✨Sumarás puntos si cuentas con:

  • AWS
  • Terraform
  • Spark/Scala
  • Tableau
  • Github
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

This job is original from Get on Board.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
Gross salary $1400 - 2000 Full time
Python Data Analysis SQL Business Intelligence
En MAS Analytics creemos que los datos son el motor de la transformación empresarial. Nuestro equipo trabaja mano a mano con organizaciones líderes para convertir información en decisiones estratégicas, utilizando tecnologías de los players más importantes del mercado (AWS, Azure y GCP). Como parte de este equipo, tendrás la oportunidad de participar en proyectos que combinan ingeniería de datos, analítica avanzada y consultoría, en un entorno colaborativo donde la innovación y el aprendizaje continuo son parte del día a día.
Porque aquí no solo desarrollarás tecnología, sino también tu carrera. Te ofrecemos un espacio para crecer, aprender y participar en proyectos que marcan la diferencia en la transformación digital de las empresas. Serás parte de una cultura que valora la innovación, la colaboración y el impacto real.

Job opportunity published on getonbrd.com.

Funciones del cargo

Tu misión será dar vida a soluciones que permitan a nuestros clientes aprovechar al máximo el valor de sus datos. Participarás en la creación de pipelines que aseguren la integración y calidad de la información, diseñarás modelos de datos eficientes y colaborarás en la construcción de arquitecturas en entornos cloud como AWS, GCP o Azure.
Además, serás responsable de desarrollar reportes y dashboards que faciliten la toma de decisiones estratégicas.
Pero este rol va más allá de lo técnico: trabajarás directamente con los clientes, entendiendo sus necesidades, participando en el levantamiento de requerimientos y proponiendo soluciones que impacten en su negocio.
Serás parte de un equipo que no solo entrega tecnología, sino también confianza y valor.

Requerimientos del cargo

Queremos a alguien con hasta un año de experiencia en análisis o ingeniería de datos, con conocimientos en SQL, modelado de datos y herramientas de BI como Power BI o Tableau. Valoramos que tengas nociones en programación (Python o R) y experiencia básica en entornos cloud.
Más allá de lo técnico, buscamos una persona curiosa, proactiva y con habilidades para comunicarse con clientes, capaz de planificar y organizar su trabajo en proyectos dinámicos.
Si te apasiona aprender, resolver problemas y trabajar en equipo, este rol es para ti.

Condiciones

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs MAS Analytics covers some computer repair expenses.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $2500 - 3500 Full time
Python SQL Web server Data Transformation
Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
En esta ocasion estamos buscando incorporar un/a Ingeniero/a de Datos con experiencia en diseño, desarrollo y mantenimiento de pipelines de datos, capaz de trabajar con herramientas modernas del ecosistema analítico y de integración. El rol tendrá foco en la construcción de flujos de datos robustos, escalables y mantenibles, apoyando procesos de analítica, reporting y migraciones de datos

Exclusive offer from getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener pipelines de datos utilizando Python, dbt y Airflow.
  • Implementar procesos de transformación y modelado de datos analíticos.
  • Orquestar flujos de datos asegurando confiabilidad y trazabilidad.
  • Colaborar en iniciativas de migración e integración de datos.
  • Asegurar calidad, consistencia y disponibilidad de la información.
  • Documentar procesos y buenas prácticas técnicas.

Requerimientos del cargo

  • Python para desarrollo de pipelines y lógica de transformación.
  • dbt para modelado, transformación y versionamiento de datos analíticos.
  • Apache Airflow para orquestación y scheduling de procesos de datos.
  • SQL avanzado para consultas, transformaciones y validaciones.
  • Inglés nivel B2 (capacidad para comunicación técnica).

Opcionales

  • Experiencia en migraciones de datos entre sistemas.
  • Experiencia en integraciones de datos desde múltiples fuentes.
  • Buen entendimiento de arquitecturas de datos modernas (ELT / Analytics Engineering).
  • Experiencia en entornos productivos y manejo responsable de cambios.

$$$ Full time
Ingeniero Senior de Data & Risk Ops
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis Excel Marketing

En BC Tecnología, el rol se enfoca en diseñar y operar un ecosistema de alertas y monitoreo para detectar y mitigar de forma proactiva riesgos y fraudes en el Marketplace. Trabaja con datos multi-fuente para generar reportes, dashboards e insights accionables, apoyando la toma de decisiones del equipo de Risk Ops.
Incluye gestión end-to-end de proyectos, colaboración con equipos locales e internacionales, comunicación con stakeholders y documentación de procesos automatizados, con foco en analítica, automatización y gobernanza de datos para la mejora continua.

Applications: getonbrd.com.

Principales funciones

  • Analizar datos y diseñar flujos automáticos que guíen la toma de decisiones entre áreas dentro de la empresa.
  • Gestionar proyectos de datos de principio a fin: levantamiento de requerimientos, desarrollo, validación y entrega de resultados.
  • Elaborar reportes y alertas que permitan monitorear casos de incumplimiento en el Marketplace y mitigar comportamientos de riesgo.
  • Generar insights y recomendaciones basadas en análisis ad-hoc para mejoras en procesos y herramientas.
  • Trabajar con distintas áreas para entender su interacción en el ecosistema digital y convertir insights en acciones de valor.
  • Conocer estructuras de almacenamiento de datos y herramientas disponibles para explotar la información y soportar la toma de decisiones.

Perfil y experiencia

Perfil profesional requerido:
  • Título de Ingeniería Civil Industrial, Ingeniería en Computación o Informática, o carrera afín.
  • 2-4 años de experiencia en roles similares (análisis en Operaciones, BI, Marketing, etc.).
  • Usuario avanzado en SQL (excluyente).
  • Inglés intermedio–avanzado (excluyente).
  • Usuario avanzado en al menos una herramienta de análisis/visualización: Excel, Tableau, Power BI, Data Studio (excluyente).
  • Experiencia en al menos un lenguaje para análisis de datos: Python (preferentemente), R, Julia, etc. (excluyente).
  • Conocimientos de plataformas Cloud, preferentemente Google Cloud Platform (no excluyente).
  • Conocimientos avanzados de Prompt Engineering (no excluyente).

Deseables

Se valorará experiencia en Ecommerce, capacidad para trabajar en entornos dinámicos de alto volumen de datos y habilidades de comunicación para interactuar con múltiples stakeholders a nivel internacional.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Data Analysis Excel

BC Tecnología es una consultora de TI que diseña soluciones para clientes en sectores como finanzas, seguros, retail y gobierno. En este rol, te integrarás a un equipo de Risk Operations enfocado en generar y mantener un ecosistema de procesos de monitoreo y alertas para detectar conductas fraudulentas o riesgosas de Sellers activos en el Marketplace. Trabajarás en proyectos estratégicos de alto impacto, con coordinación de requerimientos a nivel local e internacional, buscando mitigar riesgos operacionales y reputacionales mediante soluciones basadas en datos y automatización de procesos.

Colaborarás con áreas de negocio para traducir necesidades en soluciones analíticas; levantarás, documentarás y mantendrás procesos automáticos; y contribuirás a la mejora continua de procesos operacionales a través de insights basados en datos y reportes periódicos. Tendrás la oportunidad de participar en un entorno colaborativo, con cultura de aprendizaje y enfoque en crecimiento profesional.

Send CV through getonbrd.com.

Funciones y responsabilidades clave

  • Generar y mantener un ecosistema de procesos de monitoreo y alertas para detección de incumplimientos y comportamientos riesgosos.
  • Analizar grandes volúmenes de datos para diseñar flujos automáticos de alertas, reportes y monitoreos orientados a la detección de riesgos.
  • Elaborar reportes periódicos y análisis ad-hoc que permitan identificar, priorizar y accionar casos de riesgo.
  • Generar insights y recomendaciones accionables para la mejora continua de procesos operacionales.
  • Levantar, documentar y mantener los procesos automáticos implementados.
  • Gestionar proyectos de analítica de principio a fin, coordinando requerimientos con stakeholders locales e internacionales.
  • Comprender cómo interactúan las distintas áreas del negocio dentro del ecosistema digital y traducir necesidades en soluciones basadas en datos.
  • Utilizar estructuras de almacenamiento y herramientas de explotación de datos para apoyar la toma de decisiones.

Descripción y requisitos del rol

Buscamos un/una Analista de Datos con 2 a 4 años de experiencia en roles similares (Analítica, BI, Operaciones, Marketing o afín). Se valorará experiencia en Ecommerce. Requerimos dominio avanzado de SQL y nivel intermedio–avanzado de inglés. Se espera manejo avanzado de al menos una herramienta de visualización/análisis de datos (Excel, Tableau, Power BI o Data Studio). Experiencia en al menos un lenguaje de programación para análisis de datos (preferible Python; R u otro también válido). Conocimientos en plataformas Cloud, idealmente Google Cloud Platform. Conocimientos en Prompt Engineering serán valorados. Se ofrece modalidad de trabajo híbrida y contrato a plazo fijo con proyección a indefinido según desempeño. Participarás en proyectos estratégicos y en un entorno orientado a la toma de decisiones basada en datos.

Requisitos deseables

Experiencia adicional en herramientas de analítica avanzada, experiencia en entornos fintech o marketplaces, capacidad de trabajar en entornos ágiles, habilidades de comunicación para colaborar con stakeholders diversos y experiencia en modelado de datos y gobernanza de datos.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Docente de Minería de Datos
  • Duoc UC
  • Santiago (In-office)
Python Data Analysis SQL Business Intelligence
Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia y la máxima acreditación institucional. Nos enfocamos en formar técnicos y profesionales a través de 9 escuelas y más de 70 carreras vigentes, presentes en 18 sedes regionales. Nuestro equipo docente colabora en entornos multicisciplinarios y con enfoque en valores institucionales, buscando aportar al desarrollo económico de Chile mediante una educación de calidad y actualizada.

Apply to this job from Get on Board.

Funciones y responsabilidades

  • Liderar el proceso de enseñanza/aprendizaje en la asignatura de Minería de Datos, alineada al modelo educativo y al marco valórico institucional.
  • Desarrollar unidades didácticas, planificaciones y recursos pedagógicos que favorezcan el aprendizaje activo (ABP) y proyectos aplicados.
  • Evaluar y retroalimentar a los estudiantes, contextualizando contenidos al mundo laboral y simulando entornos empresariales.
  • Trabajar en colaboración con equipos multidisciplinarios, integrando herramientas de análisis de datos, inteligencia de negocio y desarrollo de software.
  • Integrar tecnologías y prácticas actuales de minería de datos, analítica y visualización para generar insights relevantes.
  • Contribuir a la mejora continua de la calidad de la enseñanza y del desempeño estudiantil.

Requisitos y perfil buscado

Requisitos del perfil:

  • Formación: Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en Análisis y diseño de software, empleando modelos de datos, aplicación de técnicas de Minería de Datos, experiencia en áreas de Inteligencia de Negocio, que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Martes: 16:01 a 17:20/ Miércoles: 16:01 a 18:50/ Jueves: 19:01 a 21:10/ Viernes: 20:31 a 22:30.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Debe poseer competencias profesionales tales como:

  • Conocimiento en estadística para minería de datos.
  • Conocimientos en lenguaje de programación Python, librerías: numpy, pandas, sckit learn.
  • Habilidad y experiencia en análisis y diseño, empleando modelos de datos.
  • Experiencia con técnicas de Minería de Datos basado en metodología CRISP-DM.
  • Experiencia en áreas de Inteligencia de Negocio.
  • Conocimiento en estadística descriptiva e inferencial para minería de datos.

Competencias deseables

Conocimiento avanzado de Python y sus ecosistemas para ciencia de datos; experiencia adicional en SQL, bases de datos y visualización (por ejemplo, Power BI o Tableau). Certificaciones o cursos en ML/IA y minería de datos, así como experiencia de enseñanza en entornos universitarios o técnicos.

Beneficios y condiciones

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

$$$ Full time
Docente de Minería de Datos
  • Duoc UC
  • Puerto Montt (In-office)
Python Data Analysis Business Intelligence Artificial Intelligence

Duoc UC Sede Puerto Montt, perteneciente a la Escuela de Informática y Telecomunicaciones, busca incorporar docentes para la asignatura de Minería de Datos. El objetivo es liderar el proceso de enseñanza y aprendizaje siguiendo el modelo educativo institucional, alineado a sus valores y marco disciplinar. El rol requiere aprovechar la formación y experiencia profesional para impactar positivamente en el aprendizaje de los estudiantes, contribuyendo al desarrollo de técnicas de análisis de datos y a la generación de insights relevantes a partir de grandes conjuntos de datos.

El/la docente trabajará en un entorno colaborativo, con equipos multidisciplinarios, y participará en procesos de desarrollo docente y actualización tecnológica para fortalecer las competencias de los estudiantes en Minería de Datos, Business Intelligence y análisis para toma de decisiones.

Apply to this posting directly on Get on Board.

Funciones

  • Planificar, impartir y evaluar cursos y módulos relacionados con Minería de Datos, análisis de datos y herramientas de data science.
  • Diseñar actividades prácticas, proyectos y casos de negocio que conecten la teoría con la solución de problemas reales.
  • Guiar a los estudiantes en la explotación de grandes volúmenes de datos y en la generación de observaciones e insights accionables.
  • Participar en iniciativas de desarrollo docente, actualización tecnológica y mejora continua de la asignatura.
  • Dirigir, supervisar y evaluar trabajos de curso, proyectos finales y prácticas profesionales, promoviendo buenas prácticas de análisis de datos y ética.
  • Asesorar y orientar a estudiantes en su progreso académico y en el desarrollo de habilidades técnicas y blandas relevantes para la industria.

Descripción

Se requiere un/a Ingeniero/a en Informática, Ejecución Informática o afín, con al menos 2 años de experiencia en análisis y diseño de software, manejo de modelos de datos y experiencia en técnicas de Minería de Datos e Inteligencia de Negocios. Debe haber trabajado con grandes volúmenes de datos y ser capaz de documentar observaciones e indiciar insights relevantes. Disponibilidad para jornada diurna y vespertina.

Conocimientos deseables incluyen manejo de Python para análisis de datos, experiencia en machine learning y minería de datos. Se valorará formación complementaria (diplomados o cursos) en estas áreas. Disposición para revisar previamente materiales institucionales y videos requeridos como parte del proceso de incorporación.

Requisitos deseables

  • Formación: Se requiere un Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en: Análisis y diseño de software, empleando modelos de datos. Experiencia con técnicas de Minería de Datos. Experiencia en áreas de Inteligencia de Negocio. Que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Lunes: 19:01 a 21:10 Miércoles: 16:41 a 18:50/ Jueves: 11:31 a 13:40, 16:41 a 18:50 &20:31 a 22:30 Viernes: 11:31 a 13:40.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Beneficios

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

$$$ Full time
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Apply without intermediaries from Get on Board.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales. Nuestro enfoque es crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, con un equipo multidisciplinario y una cultura de aprendizaje y crecimiento profesional. Formarás parte de una organización que prioriza la calidad, la seguridad y la gobernanza de datos mientras impulsa soluciones de alto impacto para la toma de decisiones estratégicas.

This job is original from Get on Board.

Funciones

  • Diseñar, construir y mantener pipelines de datos (ETL / Data Pipelines) robustos, escalables y eficientes para procesar grandes volúmenes de información de múltiples fuentes.
  • Gestionar la ingesta, procesamiento, transformación y almacenamiento de datos estructurados y no estructurados.
  • Implementar soluciones de ingeniería de datos en entornos cloud, con preferencia por AWS (Glue, Redshift, S3, etc.).
  • Traducir necesidades de negocio en requerimientos técnicos viables y sostenibles.
  • Colaborar con equipos multidisciplinarios (negocio, analítica, TI) para entregar soluciones de valor.
  • Aplicar buenas prácticas de desarrollo, seguridad, calidad y gob (governance) de datos; versionado de código, pruebas y documentación.
  • Participar en comunidades de datos, promover mejoras continuas y mantener la documentación actualizada.

Requisitos y habilidades

Estamos buscando un Data Engineer con al menos 3 años de experiencia en roles de Ingeniería de Datos y experiencia comprobable en ETLs y arquitecturas de datos en la nube. El candidato ideal debe haber trabajado en entornos ágiles y tener experiencia en proyectos de Retail o sectores afines (deseable).
Conocimientos técnicos requeridos:
  • Cloud Computing: AWS (Glue, Redshift, S3, entre otros).
  • Orquestación de pipelines: Apache Airflow.
  • Lenguajes de programación: Python (preferente) o Java.
  • Almacenamiento de datos: SQL, NoSQL, Data Warehouses.
  • Buenas prácticas: control de versiones, pruebas y documentación.
Competencias blandas: orientación al cliente, capacidad de trabajar en equipos multidisciplinarios, proactividad, pensamiento analítico y habilidades de comunicación para traducir requerimientos técnicos a negocio.

Deseables

Experiencia en Retail y en proyectos con gobernanza y cumplimiento de datos, experiencia con herramientas de visualización y analítica, conocimiento de seguridad de datos y cumplimiento normativo, y experiencia en migraciones o modernización de data stacks.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $3500 - 5200 Full time
Python SQL JSON Machine Learning

Vequity is building the world’s most robust, contextualized buyer intelligence network for investment banks, private equity firms, and strategic acquirers. Our platform currently houses over 1.5 million buyer profiles with approximately 100 structured and inferred data fields per profile. We leverage proprietary AI agents to continuously enrich, infer, and structure buyer intelligence at scale. As a Senior Data Engineer, you will own the architecture, quality, and scalability of our data ecosystem—from ingestion and cleaning to inference and output generation. You will partner with AI, product, and engineering teams to deliver data APIs and feeds that power our platform's decision-support capabilities. Your work will directly impact data reliability, operational efficiency, and the precision of buyer attributes used across our customers.

Job source: getonbrd.com.

Key Responsibilities

Multi-Source Data Architecture

  • Work with systems handling multiple write paths: external providers, LLM hygiene agents, and customer-claimed edits
  • Define standards for data versioning, lineage, and observability across pipelines


Entity Lifecycle & Master Data Management

  • Handle entity lifecycle complexity: mergers, acquisitions, spin-offs, rebranding, and temporal relationship changes
  • Design entity resolution systems using deterministic blocking (fuzzy matching, location) combined with LLM-based evaluation for match decisions
  • Build confidence scoring models and surface low-confidence cases for human review

Machine Learning & Matching Systems

  • Work with embeddings infrastructure: vector generation, retrieval optimization, and quality measurement
  • Optimize semantic search pipelines including embedding strategies, namespace design, and reranking
  • Establish evaluation frameworks to measure model performance against human judgment

Collaboration & Team Development

  • Educate and mentor the engineering team on data best practices, patterns, and common pitfalls
  • Lead continuous improvement of the data infrastructure roadmap

Relationship & Graph Modeling

  • Design data models for complex relationships: parent/subsidiary hierarchies, PE firm → portfolio company chains
  • Evaluate and implement graph query capabilities (Apache AGE, Neo4j, or optimized Postgres patterns) for relationship traversal that semantic search cannot address

Data Quality, Testing & Operations

  • Build quality-control layers including confidence scoring, human-in-the-loop validation, and automated anomaly detection
  • Implement testing strategies including data contracts, pipeline unit tests, and integration testing
  • Build proactive monitoring, alerting, and runbooks for data health issues
  • Ensure compliance with data governance, privacy, and security standards

Description

  • 5+ years in data engineering with strong Python (Pydantic a bonus), SQL, and cloud data stacks (including GCP)
  • Experience with orchestration frameworks (Airflow, Dagster, Prefect) and/or data platforms (Databricks)
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of embedding-based retrieval
  • Excellent communication and cross-team collaboration skills

Desirable

  • Prior experience with Machine Learning algorithms / semantic search
  • Prior experience with entity resolution or master data management — you understand why matching company records is fundamentally hard
  • Familiarity with graph databases or graph query patterns (Neo4j, Apache AGE, recursive CTEs) for complex entity relationships
  • Experience with event sourcing or append-only architectures for audit trails and data replay
  • Background in investment data, market intelligence, or deal sourcing platforms
  • Familiarity with agent orchestration tools (LangChain, LlamaIndex) and data quality frameworks (dbt, Great Expectations)
  • Experience as an early/first data hire at a startup
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of prompt engineering, MCP Servers, function calling, and embedding-based retrieval

Benefits

Competitive compensation and Paid Time Off (PTO).

Fully remote You can work from anywhere in the world.
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Virtualization
BC Tecnología es una consulta de TI especializada en la gestión de portafolios, desarrollo de proyectos y outsourcing de personal para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Enfocada en clientes de servicios financieros, seguros, retail y gobierno, la empresa promueve soluciones a través de metodologías ágiles y un marco de cambio organizacional centrado en el desarrollo de productos. El Data Engineer se integrará a proyectos desafiantes que buscan optimizar flujos de datos, gobernanza y escalabilidad, apoyando a clientes con alto estándar de calidad y buscando mejoras continuas en procesos y pipelines.

Apply from getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines eficientes para mover y transformar datos, asegurando rendimiento y escalabilidad.
  • Garantizar consistencia y confiabilidad mediante pruebas unitarias y validaciones de calidad de datos.
  • Implementar flujos CI/CD para ambientes de desarrollo y producción, promoviendo buenas prácticas de DevOps.
  • Diseñar pipelines avanzados aplicando patrones de resiliencia, idempotencia y event-driven.
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje.
  • Colaborar con líderes técnicos y arquitectos para definir estándares, guías y mejoras de procesos.
  • Alinear soluciones técnicas con requerimientos de negocio y metas de entrega.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas del equipo.

Requisitos y experiencia

Buscamos un Data Engineer con al menos 2 años de experiencia en el diseño y construcción de pipelines de datos. Debe poseer dominio avanzado de Python, Spark y SQL, y experiencia trabajando en el ecosistema AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia con lakehouses (Delta Lake, Iceberg, Hudi) y conocimientos en CI/CD (Git) y control de versiones. Se valorará experiencia previa en entornos de retail y en proyectos de calidad y gobierno de datos, así como experiencia en desarrollo de integraciones desde/hacia APIs y uso de IaC (Terraform).
Se requieren habilidades de comunicación efectiva, trabajo en equipo y proactividad. Se valorará capacidad de aprendizaje, colaboración entre equipos y enfoque en resultados en un entorno dinámico y con clientes de alto nivel.

Requisitos deseables

Experiencia previa en retail o sectores regulados. Conocimiento en calidad y gobierno de datos. Experiencia en desarrollo de integraciones desde/hacia APIs. Conocimientos en herramientas de orquestación y monitoreo de pipelines. Familiaridad con buenas prácticas de seguridad de datos y cumplimiento normativo. Capacidad para comunicar conceptos técnicos a audiencias no técnicas y para fomentar una cultura de mejora continua.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Data Engineer
  • Talana
  • Santiago (Hybrid)
Java Python SQL Erlang

En Talana, buscamos un Data Engineer que diseñe, implemente y optimice una arquitectura de datos escalable, segura y de alta disponibilidad para transformar datos crudos en insights confiables. El objetivo fundamental es transformar datos crudos provenientes de diversas fuentes en activos de datos listos para el análisis, asegurando la excelencia operativa y la automatización total del ciclo de vida del dato mediante prácticas de DataOps.

This posting is original from the Get on Board platform.

Funciones y responsabilidades

  • Diseñar y desplegar pipelines ETL/ELT robustos en GCP para centralizar datos de toda la organización.
  • Gestionar Infraestructura como Código (IaC) con Terraform para reproducibilidad, trazabilidad y control de costos.
  • Optimizar BigQuery mediante particionamiento, modelos de datos y técnicas de costo-efectividad para maximizar ROI por consulta.
  • Configurar orquestación de flujos con Dataflow y garantizar la frescura de los datos para tableros de control listos para las reuniones matutinas.
  • Implementar políticas de IAM, cifrado y gobernanza para mantener un Data Lake seguro y conforme a estándares internacionales.
  • Configurar monitoreo proactivo y alertas para detección de anomalías y mejora de la confiabilidad en tiempo real.
  • Colaborar con SRE y equipos de negocio para entregar soluciones que añadan valor inmediato.

Requisitos y perfil buscado

  • Formación: Ingeniería Civil/Informática o carreras afines.
  • Experiencia: mayor a 3 años en roles de ingeniería de datos, con al menos 1 año en nivel semi senior.
  • Conocimientos técnicos: SQL y Python a nivel avanzado; experiencia con Terraform; conocimiento de GCP (preferible) o AWS. Deseables: Apache Kafka, Apache Beam, Apache Iceberg. Inglés técnico suficiente para lectura de textos técnicos.
  • Competencias: pensamiento analítico, enfoque en calidad de datos, capacidad para trabajar en entornos colaborativos y orientados a resultados.

Deseables

Experiencia en migraciones de datos a Data Lakehouse, experiencia con orquestación avanzada, y habilidades para diseñar arquitecturas de datos que soporten dashboards y métricas en tiempo real. Conocimiento práctico de seguridad de datos, gobernanza y cumplimiento de normativas.

Beneficios

  • 💸 Ajuste de renta por UF cada 3 meses, sin tope
  • 🏝️ 5 Talana Days: te regalamos 5 días libres al año
  • 🏡 Trabajo híbrido
  • 🏥 Seguro complementario de salud y dental
  • 💰 Aguinaldos fiestas patrias y Navidad
  • 💻 Te pasamos todos los implementos de trabajo
  • 😎 Dress Code 100% flexible
  • 👨🏻‍🍼 Postnatal paternal extendido

¡¡Muchas sorpresas más!!

"Todas las contrataciones están sujetas a la ley 21015. En Talana creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas"

Health coverage Talana pays or copays health insurance for employees.
Computer provided Talana provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Talana gives you paid vacations over the legal minimum.
Beverages and snacks Talana offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Business Intelligence Virtualization
BC Tecnología, una consultora de TI especializada en servicios IT y soluciones de negocio, busca un Data Engineer para un proyecto híbrido ubicado en Las Condes, Santiago. El/la profesional se integrará a un equipo de BI/Analytics para desarrollar, optimizar y mantener soluciones de datos en entornos analíticos, trabajando con clientes de alto nivel en sectores como finanzas, seguros, retail y gobierno. El proyecto implica colaborar con equipos de BI, Analytics y TI, contribuuyendo a la implementación de pipelines de datos, modelado y generación de reports y dashboards de valor estratégico.

Opportunity published on Get on Board.

Funciones del rol

  • Desarrollar y optimizar consultas y modelos en SQL Server para soportar reporting analítico.
  • Diseñar, implementar y mantener pipelines de datos, integrando fuentes en plataformas en la nube (AWS, Azure o GCP).
  • Desarrollar y mantener reportes y dashboards en MicroStrategy para usuarios de negocio.
  • Colaborar con equipos de BI, Analytics y TI para entender requerimientos y entregar soluciones eficientes.
  • Identificar mejoras de rendimiento, escalabilidad y calidad de datos; aplicar buenas prácticas de gobierno de datos.

Requisitos y perfil

  • Al menos 3 años de experiencia como Data Engineer o BI Engineer.
  • Experiencia comprobable en SQL Server y MicroStrategy.
  • Experiencia trabajando con alguna nube (AWS, Azure o GCP).
  • Capacidad para trabajar en entornos colaborativos, orientado a resultados y con buena comunicación con stakeholders.
  • Conocimiento en conceptos de modelado de datos, extracción, transformación y carga (ETL/ELT) y buenas prácticas de calidad de datos.

Skills and assets

  • Certificaciones en SQL Server, Data Platform o tecnologías de nube asociadas.
  • Con experiencia en herramientas de visualización y dashboards además de MicroStrategy.
  • Conocimientos de Python o lenguajes de scripting para transformaciones de datos.
  • Actitud proactiva, pensamiento analítico y capacidad para trabajar de forma autónoma en entornos dinámicos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
Software Engineer I (DataOps)
  • Wherex
  • Santiago (Hybrid)
Python SQL NoSQL Virtualization

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Aporta valor real en una célula de alto rendimiento con herramientas de vanguardia. Crece con profesionales especializados y conviértete en un profesional más completo en un entorno desafiante.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!

Exclusive to Get on Board.

Job functions

- Diseñar, construir y mantener pipelines de datos robustos y eficientes, que permitan la recolección, transformación y carga de datos desde múltiples fuentes internas y externas.
- Facilitar la generación de insights accionables mediante la entrega oportuna de datos confiables y enriquecidos para análisis de negocio.
- Implementar y optimizar modelos de almacenamiento (data lakes, data warehouses, bases relacionales y no relacionales), asegurando un balance entre performance, costo y escalabilidad.
- Monitorear continuamente los flujos y procesos automatizados, detectando y comunicando incidencias oportunamente para mantener una operación confiable.
- Garantizar la calidad de los datos, diseñando validaciones, controles y tests automáticos que aseguren la integridad, completitud y consistencia de la información.
- Aplicar estándares técnicos y de gobierno de datos, velando por la trazabilidad, documentación y cumplimiento de políticas de seguridad y privacidad.
- Colaborar activamente con analistas, científicos de datos y otras áreas de producto, entendiendo sus necesidades y generando soluciones que faciliten la toma de decisiones.
- Participar en ceremonias ágiles y espacios de coordinación técnica, asegurando el alineamiento con stakeholders y contribuyendo al trabajo colaborativo.
- Buscar continuamente oportunidades de mejora en herramientas, procesos y performance, priorizando soluciones reutilizables, escalables y orientadas a la eficiencia del equipo.
- Documentar de forma clara los pipelines, estructuras y decisiones técnicas, promoviendo la transferencia de conocimiento y mantención futura.

Qualifications and requirements

- Ingeniero Civil Industrial, Ingeniero Civil Informático o Ingeniero en Computación.
- Al menos 1 año de experiencia en roles de ingeniero de datos.
- Experiencia en: Python, bases de datos SQL y no relacionales (Mongo).
- Deseable experiencia trabajando con AWS o Azure.

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

Gross salary $2800 - 3600 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes
Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

This posting is original from the Get on Board platform.

Responsabilidades del cargo

  • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
  • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
  • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
  • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
  • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Calificaciones y Requisitos del cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
Gross salary $2500 - 3700 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes

Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Apply from getonbrd.com.

Responsabilidades del Cargo

    • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
    • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
    • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
    • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
    • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Requisitos del Cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Consideración

Favor considerar adjuntar cv en Ingles actualizado al momento de postular

Beneficios

    • Un entorno de colaboración y rápido movimiento
    • Formar parte de una empresa internacional con sede en Estados Unidos
    • Asignación de reembolso por aprendizaje y desarrollo
    • Remuneración competitiva y oportunidades de promoción profesional y personal
    • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
    • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
Gross salary $3200 - 4100 Full time
Python Git Data Analysis SQL

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Scientist es un profesional altamente experimentado en el análisis de datos, con profundos conocimientos en técnicas estadísticas, de programación y de aprendizaje automático. Su rol principal es utilizar estas habilidades para extraer conocimientos significativos y tomar decisiones estratégicas basadas en datos dentro de la organización.

Además de desarrollar modelos analíticos avanzados, el Data Scientist Senior ejerce un rol importante dentro del equipo asignado al cliente, aportando con su conocimiento técnico para poder tomar decisiones concretas que ayuden al desarrollo del proyecto. Su experiencia ayuda en la conceptualización hasta la implementación, y asegura la entrega de soluciones prácticas y detallistas que cumplan con las necesitas del cliente.

Apply exclusively at getonbrd.com.

Tus responsabilidades serán:

  • Análisis de Datos: Aplicar técnicas avanzadas de análisis exploratorio para comprender la estructura y características de grandes volúmenes datos, provenientes de diversas fuentes.
  • Desarrollo de Modelos Predictivos Avanzados: utilizar técnicas avanzadas de aprendizaje automático y estadística para desarrollar modelos predictivos robustos que permitan predecir tendencias, identificar patrones y realizar pronósticos precisos.
  • Optimización de Algoritmos y Modelos: dirigir la optimización de algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad.
  • Visualización y Comunicación de Datos: crear visualizaciones claras y significativas para comunicar los hallazgos y resultados de manera efectiva al cliente y a otros stakeholders clave.
  • Desarrollo de Herramientas Analíticas: diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguajes de programación como Python, R o SQL.
  • Gestión de Proyectos: liderar frentes de un proyecto relacionados al análisis de datos complejos, desde la conceptualización hasta la implementación, planificando estratégicamente los hitos y entregables acordados con los clientes.
  • Investigación y Desarrollo Continuo: mantenerse actualizado en las últimas tendencias y avances en análisis de datos, inteligencia artificial y metodologías relacionadas. Compartir conocimientos y experiencias con el equipo para fomentar un ambiente de aprendizaje continuo.
  • Contribución a Propuestas y Desarrollo de Negocios: colaborar en el desarrollo de propuestas internas para potenciales clientes, utilizando su experiencia y conocimientos para identificar oportunidades y diseñar soluciones innovadoras.
  • Apoyar al equipo desde un rol de mentor, traspasando conocimientos y buenas prácticas, proporcionándole capacitación personalizada según las necesidades individuales de los miembros.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, Física, Estadística, carreras afines, o experiencia equivalente en análisis avanzado de datos.
  • Experiencia laboral de al menos 4 años en roles de análisis de datos, preferiblemente en industrias relevantes.
  • Experto en Python, SQL y Git, con habilidades demostradas en el desarrollo de modelos analíticos y aplicaciones.
  • Amplio conocimiento de bases de datos relacionales y no relacionales, así como experiencia en procesamiento de datos (ETL).
  • Profundo conocimiento en machine learning, feature engineering, reducción de dimensiones, estadística avanzada y optimización.
  • Inglés avanzado.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal y medio día libre de cumpleaños. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por desempeño de la empresa, además de bonos por trabajador referido y por cliente.
  • Almuerzos quincenales pagados con el equipo (Chile) o Tarjeta de Alimentación (México).
  • Cobertura de salud adicional (Mexico).
  • Computadora de altos specs para trabajar cómodamente.
  • Flexibilidad horaria y trabajo por objetivos.
  • Posibilidad de participar en proyectos a nivel global, con intercambios con otros países con presencia del grupo.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Ciudad de México).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage Artefact LatAm pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $2000 - 3000 Full time
Data Scientist
  • Cordada
  • Santiago (Hybrid)
Python Analytics SQL Artificial Intelligence

Cordada es una fintech de alto crecimiento dedicada a financiar a PyMEs en LatAm. Nuestro área de Risk and Data Analytics (RDA) desarrolla procesos para crear productos de datos en todas las áreas de la empresa, con foco especial en gestión y evaluación de riesgos de crédito. Buscamos un Data Scientist que transforme datos en información de valor y participe en proyectos de diseño, construcción y gestión de modelos de machine learning para propósitos de riesgo, analítica y negocio. El candidato trabajará colaborando estrechamente con negocio, tecnología y producto para entender requerimientos y entregar insights accionables que impulsen decisiones estratégicas y mejoras operativas.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

Gestionar modelos de machine learning existentes (reentrenamientos y mejoras) e implementar nuevos modelos.

Realizar análisis exploratorios profundos para obtener insights en nuestras fuentes de datos (enfocado en negocio, análisis riguroso y trazable).

Colaborar con áreas de negocio, tecnología y producto para capturar requerimientos y priorizar iniciativas.

Proponer y desarrollar mejoras internas que optimicen el trabajo en Risk & Data Analytics, asegurando claridad, trazabilidad y calidad de código.

Descripción general

El área de Risk and Data Analytics (RDA) es responsable de desarrollar procesos para crear productos de datos para todas las áreas de Cordada, con énfasis en la gestión y evaluación de riesgos de crédito. Es fundamental para nosotros usar los datos en la toma de decisiones y respaldar nuestras metas. Buscamos un Data Scientist capaz de transformar datos en información de valor, trabajando en proyectos de diseño, construcción y gestión de modelos de machine learning para riesgos y analítica de negocio.

Requisitos técnicos incluyen dominio intermedio/avanzado de Python y librerías de data science, SQL y herramientas de control de versiones. Se valora experiencia con stack GCP. Se espera pensamiento analítico, capacidad de comunicar resultados complejos de forma simple, independencia y trabajo en equipo multidisciplinario. Se prioriza rigor, precisión y atención al detalle, así como la habilidad para investigar problemas y entender mecanismos subyacentes que expliquen el comportamiento de los datos.

Competencias y perfiles deseables

Conocimientos en estadística avanzada, econometría y estadística causal (variables instrumentales, diferencias en diferencias, regresión discontinua, etc.).

Experiencia en procesamiento de datos, construcción de features y representaciones adecuadas para modelos, así como manejo de backtesting y monitoreo de data drift. Capacidad para explicar sesgos potenciales y manejar situaciones con información incompleta o sesgada.

Conocimientos de modelos de regresión, ML supervisado/no supervisado, modelamiento probabilístico y métodos para interpretabilidad de probabilidades. Se valoran habilidades de comunicación y capacidad para presentar resultados a stakeholders no técnicos.

Beneficios

Beneficios: opciones de trabajo híbrido algunos días de la semana, días libres por cumpleaños, seguro de salud ampliado, horario de verano, salidas tempranas los viernes, día de mudanza, licencia parental extendida, y acceso a snack machine. Únete a nosotros para tener un impacto duradero en nuestra misión de impulsar a las PyMEs de América Latina. 🌟

$$$ Full time
Data Analyst (Proyecto)
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis
BC Tecnología, una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales, busca incorporar un/a Data Analyst para un proyecto estratégico. El rol apoya la toma de decisiones basada en datos y la optimización de iniciativas digitales en un entorno con clientes de alto nivel y sector financiero. El/la profesional trabajará en un equipo ágil, colaborando con Product Owner y stakeholders para definir indicadores, priorizar iniciativas y generar insights accionables que impulsen el negocio.
La misión del proyecto es asegurar que las iniciativas digitales cuenten con métricas claras y dashboards ejecutivos para respaldar decisiones estratégicas, optimizando procesos y resultados. Se trabajará en un entorno híbrido, con foco en entrega de valor y mejora continua, y la posibilidad de involucrarse en otras áreas de la consultora según necesidades y desempeño.

Apply directly on Get on Board.

Funciones

  • Definir y monitorear KPIs del negocio, asegurando que las métricas estén alineadas con los objetivos estratégicos.
  • Construcción y análisis de dashboards ejecutivos con Power BI, incorporando visualizaciones efectivas y análisis de tendencias.
  • Apoyar en la priorización del backlog junto al Product Owner, traduciendo requerimientos de negocio en historias y métricas.
  • Analizar el impacto de funcionalidades digitales, identificando oportunidades de mejora y priorizando acciones con base en datos.
  • Generar insights accionables para el negocio y presentar hallazgos a equipos multifuncionales y alta dirección.

Descripción

Buscamos un/una Data Analyst con al menos 2–3 años de experiencia en análisis de datos, SQL, Python y Power BI. Se valorará experiencia en entornos cloud (Azure o AWS) y en Databricks. Se trabaja bajo metodologías ágiles (Scrum/Kanban). Requisitos: capacidad analítica, atención al detalle, comunicación efectiva y orientación a resultados. El/la candidato/a ideal debe poder transformar datos en insights accionables, trabajar de forma colaborativa y gestionar prioridades en un entorno dinámico.

Perfil deseable

Conocimientos en Databricks, experiencia en construcción de dashboards para ejecutivos, familiaridad con procesos de datos en la nube y capacidad de trabajar en proyectos con plazos ajustados. Se valora proactividad, pensamiento crítico y habilidad para explicar complejidades técnicas a audiencias no técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
Gross salary $1200 - 1900 Full time
Data Scientist
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Data Analysis Marketing
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply directly through getonbrd.com.

Funciones del cargo

▪ Utilize advanced Python programming skills to design, develop, and deploy machine learning models and algorithms for various business use cases.

▪ Develop Machine Learning techniques such as regression, classification, clustering, and deep learning

▪ Ensure the availability, quality, and security of data used for analysis and modeling

▪ Investigate and interpret data to identify actionable insights and opportunities for improvement

▪ Work with cross-functional teams to implement data-driven solutions and drive business growth

▪ Manage client relationships effectively, including conducting meetings, understanding client requirements, and delivering solutions that meet or exceed expectations.

▪ Lead efforts to expand business opportunities by identifying new avenues for data-driven insights and solutions.

▪ Research and devise innovative statistical models for data analysis

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organzation to the next level

Requerimientos del cargo

▪ Bachelor's degree in Computer Science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred

▪ Minimum of 1+years of experience in a data science domain or related role.

▪ Proficiency in Python for data manipulation, analysis, and model development.

▪ Data Science libraries (such as NumPy, Pandas, Scikit-Learn, TensorFlow, or PyTorch)

▪ Advanced SQL skills for data extraction, transformation, and analysis.

▪ Strong experience in Lifecycle of a Data Science Modelling project

▪ Strong knowledge and practical experience in Machine Learning techniques and frameworks such as such as regression, classification, clustering, and deep learning.

▪ Strong knowledge in Statistics, ML and LLM/Gen AI

▪ Proven track record of successfully managing client relationships and delivering value-added solutions

▪ Experience in building Reporting Dashboards in any of the BI Tools is good to have: Power BI, Tableau, Looker

▪ Familiarity with any could platform such as Azure, AWS, GPC

▪ Expert in Analytics solutions such as Marketing, Predictive Order, Segmentation, Promotion, Hyper-personalization, forecasting, Pricing Analytics development is a plus

▪ Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

▪ Excellent Stakeholder communication and proactive problem-solving

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
Gross salary $1100 - 1700 Full time
Data Engineer
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python SQL Artificial Intelligence Machine Learning
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply directly on Get on Board.

Funciones del cargo

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Cloud Platforms for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, and SQL
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects. Helping translating business realities into data bases solution.
  • Performance Optimization: Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness. Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.
  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across cloud platforms environment.

Requerimientos del cargo

  • Bachelor’s degree in computer science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred.
  • Advanced English is mandatory
  • 1+ years of experience as Data Engineer
  • Cloud data storage is mandatory
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language, relational data modelling and sound knowledge of Database administration is mandatory
  • Proficiency in Python related to Data Engineering for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • Proficiency in Microsoft Excel
  • Experience within integrating data management into business and data analytics is mandatory
  • Experience working with cloud platform for deploying and managing scalable data infrastructure
  • Experience working with technologies such as DBT, airflow, snowflake, Databricks among others is a plus
  • Excellent Stakeholder Communication
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development
  • Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
$$$ Full time
Senior Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Excel SQL
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

This job is published by getonbrd.com.

Funciones del cargo

▪ Design and develop analytical solutions to address a spectrum of business challenges, focusing on user acquisition and engagement for state-of-the-art digital offerings.

▪ Collaborate with multidisciplinary teams to structure and analyze business questions through a hypothesis-driven approach.

▪ Perform cohort studies and event impact assessments to analyze outcomes of event interventions using statistical methods.

▪ Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.

▪ Designing data models and schemas that optimize performance and scalability ensuring efficient data retrieval

▪ Partner with consultants /project leads to understand business briefs and execute analyses ensuring high quality, on-time delivery

▪ Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)

▪ Deliver informative and well-organized deliverables.

▪ Develop and enhance statistical model with best-in-class modelling techniques

▪ Evaluate new data sources, conduct research to assist in solving business problems

▪ Multi country / companies’ interactions with team and the Client is daily

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organization to the next level

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
$$$ Full time
Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Data Analysis Excel
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Find this job on getonbrd.com.

Funciones del cargo

  • Manage large datasets using most recent technologies
  • Partner with project leads to understand business briefs and execute analysis
  • Develop and enhance statistical model with best-in-class modelling techniques
  • Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.
  • Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)
  • Deliver informative and well-organized deliverables.Evaluate new data sources, conduct research to assist in solving business problems
  • Multi country / companies’ interactions with team and the Client is daily
  • Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)
  • Take part in organizational development activities to take our organization to the next leve
  • Proactively seek opportunities to help team members by sharing knowledge and expanding skills

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Beneficios

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
Gross salary $3000 - 3500 Full time
Data Engineer
  • Coderslab.io
Python SQL NoSQL Azure
Coderslab.io es una empresa global líder en soluciones tecnológicas con más de 3,000 colaboradores en todo el mundo, incluyendo oficinas en América Latina y Estados Unidos. Formarás parte de equipos diversos compuestos por talento de alto desempeño para proyectos desafiantes de automatización y transformación digital. Colaborarás con profesionales experimentados y trabajarás con tecnologías de vanguardia para impulsar la toma de decisiones y la eficiencia operativa a nivel corporativo.

© Get on Board.

Funciones del cargo

-Crear productos de datos que ayuden al negocio a lograr sus objetivos con fines analíticos.
-Diseñar, diseñar, construir y mantener soluciones de canalización de datos (Data Pipelines) / ETLs batch o streaming.
-Construir código para ingestar y actualizar grandes conjuntos de datos en bases de datos relacionales y no relacionales e incluso data No Estructurada.
-Aplicar buenas prácticas de Azure DevOps para facilitar el despliegue continuo de nuevas versiones de las canalizaciones y soluciones de datos a través de Pull-Request.
-Desarrollar Modelos de Datos que permitan gestionar los datos a escala, de manera óptima de cara a grandes volúmenes de datos (Modelo de Datos Data Vault), así como, Modelos de Datos Optimizados para consumos (Modelos de Datos Estrella y Copo de Nieve).
-Desarrollar Productos de Datos bajo la Arquitectura Lakehouse y aplicando buenas prácticas de Data Mesh.
-Trabajar con las áreas de negocios para comprender los objetivos, recopilar los requisitos iniciales para desarrollar y recomendar soluciones adecuadas.
-Participar en la planificación y ejecución de proyectos de ingeniería de datos, coordinando actividades y asegurando el cumplimiento de los plazos.
-Colaborar con los científicos de datos para comprender los requisitos específicos de datos necesarios para modelos de inteligencia artificial (IA) y aprendizaje automático (ML).

Requerimientos del cargo

-Microsoft Certified: Azure Data Engineer Associate
-Databricks Certified: Data Engineer Associate
-Conocimiento avanzado en bases de datos relacionales y lenguaje SQL.
-Conocimiento avanzado en bases de datos NoSql.
-Conocimiento avanzado de procesos y herramientas de ETL, principalmente enfocado a Azure.
-Conocimiento en procesamiento de datos batch, streaming, API.
-Conocimiento intermedio en programación Python y avanzado en el uso de la biblioteca pyspark.
-Conocimientos avanzados en el modelado de datos Data Vault para arquitecturas Data Lakehouse.
-Conocimientos avanzados en el modelado de datos Estrella y Copo de Nieve para arquitecturas Data Warehouse.
-Conocimiento conceptual en gobierno de datos, seguridad de los datos y calidad de los datos.

Condiciones

Modalidad de contratación: Prestación de servicio, Contractor.
Duración del proyecto: Indefinido.

Fully remote You can work from anywhere in the world.
$$$ Full time
Python SQL Virtualization Big Data
En WiTi lideramos un proyecto estratégico de migración de un ecosistema analítico legado hacia una arquitectura moderna en la nube sobre AWS.
El objetivo es estandarizar, optimizar el rendimiento y escalar la operación, trasladando lógica SAS y SQL no estándar a SQL estándar para Amazon Redshift. Este esfuerzo involucra automatización para acelerar la migración, reducción de errores y una alta interacción con equipos de data, BI y TI para asegurar trazabilidad, reproducibilidad y gobernanza de datos a nivel enterprise.
Serás parte de un equipo multidisciplinario que diseña y ejecuta la migración de punta a punta, estableciendo reglas de conversión, pipelines, controles de calidad y guías de codificación reutilizables. El proyecto ofrece visibilidad transversal sobre ETL/ELT y buenas prácticas de gobierno de datos en un entorno cloud escalable.

Apply directly on the original site at Get on Board.

Funciones del cargo

  • Analizar programas existentes en SAS, incluyendo SAS SQL no estándar y estructuras propias del entorno (macros, data steps, librerías, jobs).
  • Convertir y reescribir lógica desde SAS a SQL estándar compatible con Amazon Redshift, cuidando equivalencia funcional y performance.
  • Definir un enfoque repetible para migrar grandes volúmenes de programas: reglas, patrones de conversión y estándares de codificación.
  • Automatizar el proceso de transformación mediante scripts, reglas de conversión, validaciones automáticas, templates o pipelines.
  • Trabajar con procesos ETL/ELT en AWS, integrándose con el stack del cliente (fuentes, cargas, transformaciones, orquestación, monitoreo).
  • Validar equivalencia funcional entre SAS y Redshift mediante reconciliaciones de datos, controles de calidad y monitoreo.
  • Documentar reglas de conversión, decisiones técnicas y casos borde para un proceso mantenible y auditable.
  • Colaborar con data y TI para asegurar trazabilidad, reproducibilidad y rendimiento del data warehouse en la nube.

Perfil y requisitos

Buscamos un Data Engineer con experiencia sólida en migraciones de SAS hacia entornos cloud, especialmente Amazon Redshift, y con fuerte capacidad para optimizar consultas, diseñar estrategias de conversión y liderar iniciativas de calidad de datos. Deberás combinar habilidades técnicas avanzadas con capacidad de trabajo colaborativo en un entorno enterprise.
  • SQL avanzado (queries complejas, optimización de performance, joins pesados, window functions/CTEs), lectura e interpretación de planes de ejecución.
  • Experiencia demostrada trabajando con SAS (lectura y mantención de programas, entendimiento de SAS SQL y su lógica de procesamiento).
  • Experiencia práctica con Amazon Redshift: diseño y escritura de SQL, buenas prácticas de rendimiento y modelado en Redshift.
  • Conocimiento de ETL/ELT en AWS (p. ej., Glue, Lambda, Step Functions) y otras herramientas de orquestación.
  • Experiencia en contextos enterprise centrada en calidad, trazabilidad, documentación y resultados reproducibles.
migraciones desde SAS u otras tecnologías legacy hacia cloud data warehouses (Redshift, Snowflake, BigQuery), automatización de migraciones, Python u otros lenguajes de scripting para tooling, gobernanza de datos (naming conventions, documentación funcional/técnica, data quality checks) y monitoreo.

Requisitos deseables

Se valorará experiencia previa migrando desde tecnologías legacy hacia cloud data warehouses (SAS, otros) y participación en automatización de migraciones. Conocimientos de Python u otros lenguajes de scripting para apoyar automatización y tooling interno, así como experiencia en gobernanza de datos (naming conventions, documentación, data quality checks y monitoreo).

Beneficios

En WiTi fomentamos una cultura de aprendizaje y colaboración, con foco en proyectos digitales y de datos de alto impacto. Entre los beneficios se incluyen:
  • Plan de carrera personalizado orientado a desarrollo en data, cloud y analítica.
  • Certificaciones para continuar creciendo en tu carrera (AWS, data, analítica).
  • Cursos de idiomas para desarrollo personal y profesional.
Modalidad híbrida en Las Condes, Santiago, con flexibilidad para coordinar con equipos y stakeholders. Participación en un proyecto estratégico de transformación de datos con alta visibilidad interna y contacto directo con equipos de data, BI y tecnología. Política de trabajo remoto Híbrido; se combine trabajo remoto y días en oficina.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Data Engineer – Proyecto (Híbrida)
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL SQL Web server
En BC Tecnología diseñamos y ejecutamos soluciones de TI para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de Data & Analytics se centra en impulsar la continuidad operativa de flujos de datos corporativos mediante pipelines robustos, integraciones escalables y monitoreo proactivo. Participarás en un proyecto con enfoque en datos de alto volumen, trabajando con tecnologías modernas y un entorno ágil para entrega continua y mejoras de producto.

Find this job and more on Get on Board.

Funciones

  • Diseñar y mantener pipelines ETL/ELT para datos críticos de la organización.
  • Orquestar y monitorear flujos de datos con Apache Airflow en entornos productivos.
  • Optimizar consultas SQL en PostgreSQL y/o Amazon Redshift para rendimiento y costos.
  • Gestionar repositorios y pipelines CI/CD en Azure DevOps.
  • Resolver incidencias y asegurar la calidad, disponibilidad y trazabilidad de los datos.
  • Colaborar con equipos de ciencia de datos, ingeniería y negocio para entender requerimientos y entregar soluciones escalables.
  • Participar en la definición de estándares de gobierno de datos y mejores prácticas de ingeniería de datos.

Descripción

  • Buscamos Ingeniero/a de Datos con experiencia en desarrollo de pipelines y entornos productivos para asegurar fluidez y confiabilidad de los datos corporativos.
  • Requisitos técnicos: Python y SQL avanzados; experiencia con PostgreSQL y/o Amazon Redshift; Apache Airflow; Azure DevOps; manejo de grandes volúmenes de datos.
  • Competencias: pensamiento analítico, proactividad, orientación a resultados, capacidad de trabajo en equipo y comunicación efectiva con stakeholders.
  • Se valoran proyectos previos en entornos financieros y experiencia con herramientas de monitoreo y observabilidad de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply at getonbrd.com without intermediaries.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
$$$ Full time
Data Analyst
  • Vemo México
  • Ciudad de México (In-office)
Python Analytics Data Analysis Excel

En VEMO México, nos movemos en el ámbito de la electromovilidad para acelerar la adopción de soluciones de movilidad limpia en México y América Latina. Nuestro equipo trabaja en software y plataformas tecnológicas de alto impacto dentro de un ecosistema que integra datos, energía limpia, infraestructura de carga y servicios digitales. Buscamos talento joven para formar parte de un área de ingeniería que aprende y crece a través de proyectos reales, con foco en impacto social y ambiental. Este rol te permitirá participar en la construcción de componentes de software, colaborar con perfiles más senior y entender el ciclo completo de desarrollo dentro de una empresa cleantech en expansión, con metodología ágil y un ambiente de aprendizaje continuo.

Apply directly on the original site at Get on Board.

Funciones del cargo

El VCN Data Analyst será responsable de centralizar, analizar y traducir los datos comerciales, operativos y de portafolio de la red de recarga VCN en inteligencia accionable que impulse la toma de decisiones estratégicas, la eficiencia operativa y la escalabilidad de capacidades internas. Este rol trabaja de forma transversal con líderes de área y en estrecha colaboración con los equipos de Business Intelligence, Business Development y VCN Operations para diseñar dashboards, reportes y herramientas que fortalezcan el seguimiento de indicadores clave de la red.

Responsabilidades principales

  • Recolectar y organizar datos provenientes de CRM, sistemas de monitoreo de cargadores, O&M y operaciones comerciales
  • Validar la calidad, consistencia y completitud de la información
  • Estandarizar reportes internos y bases de datos para la toma de decisiones
  • Monitorear y analizar KPIs críticos por hub, región y tipo de producto
  • Detectar outliers, desviaciones o problemas estructurales en la red
  • Evaluar performance de hubs y del portafolio de activos, generando recomendaciones para mejorar rentabilidad y eficiencia
  • Co-diseñar dashboards junto con el equipo de BI para monitorear performance en tiempo real
  • Automatizar reportes y crear herramientas que faciliten la gestión de operaciones
  • Preparar reportes ejecutivos y presentaciones para el senior management
  • Desarrollar narrativas de datos que traduzcan métricas complejas en insights estratégicos
  • Proponer iniciativas basadas en datos (zonas de oportunidad, pricing, eficiencia operativa, riesgos)
  • Acompañar a líderes de área en la implementación de soluciones
  • Identificar patrones de alto impacto y contribuir al diseño de herramientas internas de performance tracking

Requerimientos del cargo

  • Licenciatura en Ingeniería, Actuaría, Economía, Matemáticas Aplicadas, Sistemas Computacionales o afines
  • 3+ años en análisis de datos, business analytics o roles similares, idealmente en industrias de tecnología, movilidad, energía o infraestructura
  • Experiencia en forecasting, modelos de predicción y optimización de operaciones
  • Historial comprobable en diseño de dashboards y automatización de reportes
  • Experiencia trabajando con stakeholders de alto nivel y generando recomendaciones estratégicas

Habilidades técnicas (Hard Skills)

  • Dominio avanzado de Excel y PowerPoint
  • Manejo de herramientas de visualización: Power BI, Tableau
  • Conocimientos en SQL, Python o R para análisis y modelado de datos

Habilidades interpersonales (Soft Skills)

  • Capacidad analítica y pensamiento estratégico
  • Estructura y atención al detalle
  • Autonomía y ownership mentality
  • Comunicación efectiva y data storytelling
  • Adaptabilidad y colaboración transversal

Opcionales

  • Maestría o posgrado en Data Science, Business Analytics o Business Intelligence
  • Conocimientos en modelos de pricing y customer segmentation
  • Experiencia previa en empresas de alto crecimiento o scale-ups

Condiciones

A convenir según perfil y experiencia. En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Disponibilidad de horarios flexibles y oportunidades de desarrollo profesional en tecnología y negocio.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Applied Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python Data Analysis SQL

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

© getonbrd.com.

Descripción del trabajo

Como Applied Scientist, te sumaras a un equipo ya constituido de Analítica Avanzada, trabajando en conjunto con otras disciplinas tales como Data Scientist, Machine Learning Engineers, DevOps, equipos de producto y gestión.

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Tu trabajo como Applied Scientist será promover y realizar experimentos para orientar los esfuerzos e incrementos de los equipos. Estos desarrollos formarán parte de la transformación data-driven de la empresa con el propósito de fortalecer y eficientar la toma de decisiones basadas en análisis técnicos rigurosos de datos.

Como Applied Scientist tu trabajo consistirá en:

  • Ser el principal gestor de la medición de impacto de los productos, estimando y relacionando el efecto de las acciones en los principales indicadores de la compañía (Ingreso, Costo, Experiencia de Cliente, Puntualidad, entre otros), utilizando técnicas experimentales y observacionales.
  • Habilitar la experimentación en distintos equipos, identificando los métodos estadísticos adecuados para medir el impacto en cada dominio.
  • Participar de la creación de una plataforma de experimentación.

Es un trabajo muy dinámico, donde aprenderás de diferentes proyectos, colaborando con múltiples disciplinas de negocio, datos e IA, trabajando en un ambiente donde la curiosidad, colaboración y empatía son esenciales. Esperamos ver desplegadas tus ganas de aprender y enseñar.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Calificaciones clave

  • Estudios de Ingeniería Civil Industrial, Economía o similar.
  • Experiencia desarrollando estudios de evaluación de impacto utilizando técnicas experimentales y observacionales, tales como RCT (Randomized Control Trials), Técnicas econométricas como Diferencia en Diferencias, controles sintéticos, variables instrumentales, y Propensity Score Matching, entre otros.
  • Dominio intermedio de algún lenguaje de scripting orientado a análisis de datos (R y/o Python), teniendo como base manejo de flujos, condiciones, funciones; así como comodidad utilizando el principal stack de librerías como tidyverse para R, pandas y statsmodels para Python.
  • Experiencia utilizando algún lenguaje declarativo de consultas a base de datos (SQL) para preparar conjuntos de datos para análisis, así como para caracterizar su comportamiento.
  • Habilidad para trabajar en equipo, levantar requerimientos y conseguir resultados.
  • Buen manejo comunicacional y skills de colaboración.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia trabajando con equipos de datos y de análisis en torno a indicadores de negocio.
  • Conocimiento de metodologías ágiles.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage NeuralWorks pays or copays health insurance for employees.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
Gross salary $3500 - 3700 Full time
Java Python Analytics PostgreSQL

Coderslab.io is looking to hire a Big Data & Reporting Lead to lead the organization’s data architecture and analytics strategy.

This role will be responsible for designing, governing, and optimizing the enterprise data architecture, ensuring proper structuring, integration, automation, and consumption of data for reporting, advanced analytics, and decision-making.

The position has a strong focus on data architecture, analytical modeling for MicroStrategy, process automation using n8n, and optimization of ETL/ELT data pipelines.

About the client and the project: the company delivers innovative technology solutions and provides opportunities for continuous learning under the guidance of experienced professionals and cutting-edge technologies. The goal is to deliver value in key business processes and improve operational efficiency through SAP.

Exclusive to Get on Board.

Funciones del cargo

Data Architecture
Design and govern the data architecture for Big Data and BI platforms.
Define analytical data models for reporting and analytics.
Design data lakes, data warehouses, and data marts aligned with business needs.
Establish data governance, quality, and lineage standards.
Ensure platform scalability, availability, and reliability.

Modeling and Reporting in MicroStrategy
Design and optimize the semantic layer and metadata in MicroStrategy.
Define analytical models and Star Schema structures.
Lead the development of dossiers, operational reports, and analytical cubes.
Optimize queries, performance, and execution times.
Define caching, aggregation, and pre-calculation strategies.

Automation of Analytical Processes (n8n)
Design data and reporting automation workflows using n8n.
Integrate sources such as APIs, databases, cloud services, and BI tools.
Automate data extraction, report generation, dashboard distribution, and alerts.
Design orchestration pipelines for analytical processes.

Data Processing Optimization
Design and optimize scalable ETL/ELT processes.
Optimize queries, data pipelines, and incremental loads.
Reduce latency and resource consumption in reporting.
Implement efficient data ingestion strategies.

Technical Leadership and Management
Lead Data Engineering, BI, and Analytics teams.
Track data architecture and reporting projects.
Define the data platform evolution roadmap.
Establish KPIs for reporting performance, data quality, and analytics adoption.
Align business needs with the data architecture.

Requerimientos del cargo

Experience leading data architecture or analytics platforms.
Experience in analytical data modeling (Star Schema, Data Modeling).
Experience working with Big Data or Data Warehousing platforms.
Experience with MicroStrategy for modeling and reporting.
Experience designing ETL / ELT processes and data pipelines.
Advanced SQL knowledge.
Experience with Python for data processing or automation.
Experience designing scalable data architectures.

Technologies
Big Data & Data Platforms
Spark
Hadoop
Databricks
Snowflake / BigQuery / Redshift
Kafka
Business Intelligence
MicroStrategy
Power BI (nice to have)
Tableau (nice to have)
Automation & Orchestration
n8n
Airflow
REST APIs
Webhooks
Databases
SQL Server
PostgreSQL
Oracle
NoSQL
Data Engineering
Python
Advanced SQL
ETL / ELT pipelines

Opcionales

Experience with workflow automation using n8n.
Experience with orchestration tools such as Airflow.
Experience with Power BI or Tableau.
Knowledge of event-driven or streaming architectures (Kafka).
Experience in data governance, data quality, and data cataloging.

Condiciones

Modalidad prestacion de servicios

Gross salary $4500 - 4800 Full time
Data Engineer
  • Coderslab.io
Python Agile SQL Scrum

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
Role Purpose

We are looking for a Data Engineer to design, develop, and support robust, secure, and scalable data storage and processing solutions. This role focuses on data quality, performance, and integration, working closely with technical and business teams to enable data-driven decision making.

Apply without intermediaries through Get on Board.

Funciones del cargo

Key Responsibilities

  • Design, develop, test, and implement databases and data storage solutions aligned with business needs.
  • Collaborate with users and internal teams to gather requirements and translate them into effective technical solutions.
  • Act as a bridge between IT and business units.
  • Evaluate and integrate new data sources, ensuring compliance with data quality standards and ease of integration.
  • Extract, transform, and combine data from multiple sources to enhance the data warehouse.
  • Develop and maintain ETL/ELT processes using specialized tools and programming languages.
  • Write, optimize, and maintain SQL queries, stored procedures, and functions.
  • Design data models, defining structure, attributes, and data element naming standards.
  • Monitor and optimize database performance, scalability, and security.
  • Assess existing database designs to identify performance improvements, required upgrades, and integration needs.
  • Implement data management standards and best practices to ensure data consistency and governance.
  • Provide technical support during design, testing, and production deployment.
  • Maintain clear and accurate technical documentation.
  • Work independently on projects of moderate technical complexity with general supervision.
  • Participate in Agile teams, contributing to sprint planning and delivery.
  • Provide on-call support outside business hours and on weekends on a rotating basis.

Requerimientos del cargo

Required Qualifications

  • Bachelor’s degree in Computer Science, Information Systems, Database Systems, Engineering, or a related field, or equivalent experience.
  • 4–5 years of professional experience in a similar role.
  • Strong experience with:
    • SQL
    • Snowflake
    • ETL / ELT processes
    • Cloud-based data warehousing platforms
  • Experience with ETL tools (e.g., Informatica) and programming languages such as Python.
  • Solid understanding of data warehouse design and administration.
  • Experience working with Agile methodologies (Scrum).
  • Strong analytical, conceptual thinking, and problem-solving skills.
  • Ability to plan, prioritize, and execute tasks effectively.
  • Strong communication skills, able to explain technical concepts to non-technical stakeholders.
  • Excellent written and verbal communication skills.
  • Strong interpersonal, listening, and teamwork skills.
  • Self-motivated, proactive, and results-driven.
  • Strong service orientation and professional conduc

Opcionales

Preferred Qualifications

  • Certifications in Snowflake, SQL Server, or T-SQL.

Condiciones

Remote | Contractor | High English proficiency

$$$ Full time
Python Redis PostgreSQL REST API

Continuum es un equipo de rebeldes con mentalidad de experimentación y hambre de romper paradigmas. Ayudamos a empresas líderes a sacudir el status quo y a tomarse en serio la innovación, la tecnología y la agilidad. Diseñamos y desarrollamos productos digitales y servicios innovadores centrados en las personas. Tenemos oficinas en Santiago y Lima, pero adoptamos un modelo distribuido; buena parte del equipo vive en otras ciudades o países.

ROL
Como Data Engineer [Semi-Senior] trabajarás en dupla directa con un Back-end Engineer para construir y habilitar flujos de datos que soporten sistemas de seguridad, privacidad de datos y plataformas analíticas — haciendo que la información esté disponible, limpia, segura y estructurada para reportería, análisis y cumplimiento regulatorio en data privacy y gestión de derechos de datos.

Duración: 6 meses [con posible extensión a 1 año o más]
Rango referencial mensual: 2600 a 3600 USD

Opportunity published on Get on Board.

Qué harás

  • Diseñar, construir y mantener pipelines de datos confiables y escalables sobre GCP (Dataflow, Pub/Sub, BigQuery, Cloud Storage).
  • Modelar y transformar datos asegurando calidad, nomenclatura y catalogación.
  • Construir y exponer APIs y microservicios para ingesta, orquestación y consumo de datos, coordinado con el Back-end Engineer del equipo.
  • Aplicar controles de gobernanza, compliance y seguridad: Policy Tags, Row-level Security, IAM, Cloud DLP para detección y enmascarado de PII.
  • Optimizar performance de queries y costos de infraestructura (FinOps) sobre BigQuery y Cloud SQL.
  • Monitorear la disponibilidad y resiliencia de pipelines, gestionando incidentes y asegurando SLAs.
  • Colaborar en pipelines de CI/CD con Terraform, GitLab CI / Cloud Build, garantizando desplieues automatizados y seguros.
  • Democratizar el acceso a datos habilitando flujos hacia plataformas analíticas y sistemas corporativos del cliente.

Conocimientos y experiencia clave (must-have)

Data Engineer Semi Senior con experiencia en GCP y construcción de pipelines de datos en producción. Capaz de trabajar con autonomía a partir de objetivos funcionales, diseñando la solución técnica necesaria. Con habilidad para coordinarse con un equipo de backend y con stakeholders no técnicos del cliente.


Cloud & Datos

  • GCP: BigQuery, Dataflow / Apache Beam, Pub/Sub, Cloud Storage, Cloud Run
  • SQL avanzado (BigQuery SQL, optimización de queries)
  • Python para pipelines, automatización y procesamiento de datos
  • Arquitectura Medallion (Bronze / Silver / Gold)


DevOps & Infraestructura

  • GitLab CI / Cloud Build / GitHub Actions

Gobernanza & Seguridad

  • IAM / Policy Tags / Row-level Security
  • OAuth2 / OIDC
  • Secret Manager
  • Cumplimiento GDPR / LGPD o normativas equivalentes

Integración con Backend

  • REST APIs
  • Cloud SQL (PostgreSQL)
  • Memorystore (Redis) para cache
  • Pub/Sub para arquitecturas orientadas a eventos

Complementarios

DevOps & Infraestructura

  • Terraform (IaC)
  • Docker
  • Artifact Registry

Observabilidad & Monitoreo

  • Cloud Logging / Monitoring / Trace / Error Reporting
  • OpenTelemetry

Gobernanza & Seguridad de Datos

  • Cloud DLP (detección y enmascarado de PII)
  • Dataform para transformaciones SQL sobre BigQuery

Bases de Datos

  • Neo4j u otras bases de datos de grafos

Experiencia & Contexto

  • Experiencia en sector aeronáutico, financiero o similar con alta regulación de datos
  • Experiencia en proyectos de data privacy, compliance o gestión de derechos de datos

Habilidades Blandas & Otros

  • Inglés intermedio (B1+) para lectura de documentación técnica
  • Capacidad de mentoring y guía de buenas prácticas al equipo

Beneficios

Trabajo 99% remoto (con un par de eventos de integración anuales), vacaciones adicionales, becas de estudios, deporte o apoyo a actividades que mejoren tu calidad de vida laboral y personal, día extra por tu cumpleaños, horario flexible y trabajo orientado a resultados, entre otros.

Library Access to a library of physical books.
Fully remote You can work from anywhere in the world.
Internal talks Continuum offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Continuum pays or copays health insurance for employees.
Computer repairs Continuum covers some computer repair expenses.
Computer provided Continuum provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Continuum gives you paid vacations over the legal minimum.
Beverages and snacks Continuum offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Data Scientist / Machine Learning Engineer
  • CyD Tecnología
  • Santiago (Hybrid)
Python Agile SQL Erlang
En CyD Tecnología desarrollamos plataformas web a medida que transforman procesos complejos en soluciones simples y eficientes. Buscamos un Data Scientist / Machine Learning Engineer para liderar la construcción de modelos predictivos orientados a la planificación de ventas y abastecimiento (S&OP). El rol implica procesar y analizar datos desde BigQuery, desarrollar modelos multivariables en Python y generar outputs analíticos para la toma de decisiones. Participarás en la construcción, prueba y ajuste de modelos de machine learning, documentar resultados y generar recomendaciones basadas en datos para optimizar procesos comerciales y de la cadena de suministro en entornos de Google Cloud Platform. Colaborarás estrechamente con equipos de ventas, operaciones y producto, dentro de un entorno ágil para entregar soluciones escalables y orientadas a impacto.

Apply directly on Get on Board.

Funciones clave

  • Procesar y transformar grandes volúmenes de datos en BigQuery para soportar modelos predictivos y dashboards operativos.
  • Desarrollar, evaluar y mantener modelos multivariables (regresión, clasificación, series temporales) en Python, con énfasis en S&OP y optimización de inventarios.
  • Realizar análisis de drivers de negocio y extracción de insights accionables para mejorar ventas y planificación de la cadena de suministro.
  • Colaborar con equipos de producto, ventas y logística para convertir resultados en recomendaciones concretas y acciones operativas.
  • Documentar modelos, parámetros, supuestos y resultados; generar reportes y presentaciones para stakeholders.
  • Implementar prácticas de ML Ops, monitoreo de modelos y actualización continua en Google Cloud Platform.

Requisitos y perfil deseado

Buscamos un perfil con solides técnicas en ciencia de datos e ingeniería de ML, capaz de traducir datos en decisiones estratégicas para ventas y abastecimiento. Debes trabajar de forma autónoma, comunicar claramente resultados y colaborar en un entorno ágil. Se valorará experiencia en S&OP, análisis de cadenas de suministro y stack de Google Cloud Platform.
Competencias técnicas:
  • Python (pandas, NumPy, scikit-learn, statsmodels) y SQL avanzado.
  • Experiencia con BigQuery y el ecosistema GCP (BigQuery ML, Dataflow/Beam, Cloud Storage).
  • Conocimiento en técnicas de ML para series temporales, forecasting, regresión y clasificación.
  • Habilidad para explicar resultados complejos a públicos no técnicos y generar recomendaciones accionables.
  • Experiencia con herramientas de visualización y storytelling de datos.
  • Metodologías ágiles y capacidad de trabajar en equipo multifuncional.

Competencias académicas:

  • Ingeniero Civil Informático, Industrial o Afín.

Deseables

Se valorará experiencia específica en S&OP, optimización de inventarios y operaciones de compra/planning. Conocimiento de ML Ops, Docker/Kubernetes, TensorFlow o PyTorch y familiaridad con estructuras de datos ERP.

Beneficios

Ofrecemos seguro complementario de salud y jornada híbrida de trabajo. En CyD Tecnología promovemos un entorno de trabajo flexible, oportunidades de desarrollo profesional y proyectos con impacto real en la transformación digital de clientes. Contamos con una cultura ágil, equipo colaborativo y horarios compatibles con productividad. Únete para crecer junto a un equipo líder en soluciones web y móviles a medida.

Gross salary $2500 - 3200 Full time
Data Governance Consultant
  • Artefact LatAm
  • Santiago (Hybrid)
Excel SQL NoSQL Virtualization

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Data Governance Consultant es un profesional altamente especializado que colabora estrechamente con los clientes para desarrollar e implementar proyectos estratégicos de Data Governance u otros. Este rol se enfoca en actuar como un arquitecto de la confianza dentro de los ecosistemas de información, adaptando tecnología y la aplicación de las últimas tendencias, con un profundo entendimiento de los negocios. Como consultor, trabajará en estrecha colaboración con equipos multidisciplinarios para ofrecer soluciones que generen un impacto significativo y añadan valor a los clientes.

Apply exclusively at getonbrd.com.

Funciones del cargo

  • Realizar investigaciones exhaustivas y análisis de información relevante para el proyecto.
  • Desarrollar diagnósticos y proponer soluciones adaptadas a las necesidades específicas de cada cliente, utilizando un enfoque analítico y estratégico.
  • Desarrollar y mantener el roadmap de Data Governance, definiendo la propiedad de los datos (data ownership), los roles de custodia (stewardship) y los modelos operativos.
  • Establecer dimensiones de calidad (exactitud, completitud, consistencia) e implementar sistemas de monitoreo y alertas automatizadas.
  • Definir y hacer cumplir las políticas de retención de datos, privacidad (GDPR, LGPD o normativas locales) y seguridad, trabajando de la mano con los equipos especializados en la materia.
  • Crear entregables innovadores y orientados a resultados, con un enfoque en la transformación digital.
  • Aplicar rápidamente el aprendizaje adquirido de diversas industrias y herramientas para abordar los desafíos de cada cliente.
  • Presentar de manera efectiva los hallazgos y resultados del proyecto, adaptándose a las necesidades de los stakeholders del cliente.
  • Contribuir a la elaboración de propuestas para potenciales clientes, mediante un análisis detallado de la industria y la identificación de soluciones adecuadas.
  • Construir y mantener relaciones sólidas con los clientes, actuando como un socio estratégico en su camino hacia el éxito.

Requerimientos del cargo

  • Titulación en Ingeniería Civil Industrial, Ingeniería en sistemas, Ciencias de la Computación, Ingeniería Industrial o áreas afines.
  • Experiencia laboral mínima de 3 años en consultoría, roles de gestión de proyectos o gobierno de datos.
  • Experiencia de al menos 1 año en materias de Data Governance.
  • Dominio avanzado de herramientas de Microsoft Office (Excel, PowerPoint, Word).
  • Pensamiento Analítico: Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.
  • Conocimiento profundo de las regulaciones de privacidad de datos y cómo traducirlas en requisitos técnicos.
  • Conocimiento profundo de diversas herramientas y soluciones digitales. Además de una comprensión sólida de SQL, NoSQL y entornos de nube (AWS, Azure o GCP).

Sumas puntos extras si...

  • Se valoran certificaciones asociadas al cargo
  • Deseable experiencia en programación en Python y uso de herramientas de visualización como PowerBI o Tableau.
  • Conocimiento o nociones de Data Science.

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Data Engineer
  • Dynamic Devs
  • Santiago (Hybrid)
Python Git SQL Virtualization

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Data Engineer con experiencia en procesamiento de datos a gran escala.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

✅ Diseñar, desarrollar y optimizar pipelines de datos utilizando PySpark, AWS EMR y Glue.
✅ Procesar grandes volúmenes de datos en entornos distribuidos y escalables.
✅ Implementar y mantener soluciones de integración y transformación de datos en la nube ☁️.
✅ Monitorear y optimizar el rendimiento de las soluciones de datos.
✅ Garantizar la seguridad y gobernanza de los datos en el ecosistema AWS.
✅ Integrar datos desde múltiples fuentes y asegurar su correcta transformación y almacenamiento.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años en Databricks o AWS EMR.
🛠️ Conocimientos sólidos en SQL y modelado de datos.
⚙️Conocimientos en otras herramientas de AWS como: S3, Redshift, Athena, Glue o Lambda.
🐍 Desarrollo en Python aplicado a procesamiento de datos.
📊 Conocimientos en frameworks de Big Data y optimización de rendimiento en entornos distribuidos.
🔗 Experiencia en Git.
📍 Disponibilidad para asistir 2 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago - Chile (modalidad híbrida, requisito excluyente).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Analista de Datos BI Semi Senior
  • Coderslab.io
  • Guayaquil (In-office)
Python Data Analysis Excel SQL

En Coderslab nos encontramos en la búsqueda de un Analista de Datos BI Semi Senior, encargado de apoyar en la construcción, mantenimiento y mejora de reportes y dashboards de Business Intelligence, asegurando calidad, consistencia y confiabilidad de la información utilizada para decisiones operativas y ejecutar análisis estructurados bajo lineamientos definidos, con autonomía creciente en tareas técnicas recurrentes. Asi como tambien tendrá participación en la consulta y preparación básica de datos para visualización, sin responsabilidad sobre arquitectura de datos, definición de KPIs estratégicos ni liderazgo de modelado complejo o pipelines.

© Get on Board.

Funciones del cargo

  • Construcción y mantenimiento de dashboards en Power BI y/o Tableau.
  • Desarrollo de visualizaciones claras, funcionales y orientadas al seguimiento operativo.
  • Aplicación de buenas prácticas básicas de modelado para consumo analítico.
  • Realización de ajustes y mejoras menores sobre reportes y dashboards existentes.
  • Desarrollo de consultas SQL para extracción, validación y análisis de información.
  • Consulta de datos desde bases Oracle como fuente de origen.
  • Uso básico de PL/SQL para lectura o ajustes simples sobre lógica existente, cuando aplique.
  • Preparación básica de datasets para visualización.
  • Validación de consistencia y calidad de datos.
  • Documentación simple de fuentes y transformaciones realizadas.
  • Generación de reportes operativos periódicos.
  • Identificación de variaciones básicas en indicadores.
  • Atención a requerimientos de ajustes menores en dashboards y reportes.
  • Apoyo en análisis recurrentes bajo lineamientos previamente definidos.
  • Participación en células ágiles o esquemas colaborativos de trabajo.
  • Coordinación con equipos técnicos o áreas fuente para entender origen y estructura de datos.
  • Recepción y aplicación de feedback técnico y funcional.
  • Escalamiento oportuno de incidencias o dependencias técnicas

Requerimientos del cargo

2 o más años de experiencia en análisis de datos o Business Intelligence.
Experiencia en construcción y mantenimiento de dashboards.
Experiencia en generación de reportes operativos periódicos.
Experiencia realizando consultas SQL para extracción, validación y análisis de información.
Experiencia consultando información desde bases Oracle como fuente de origen.
Experiencia en validación de consistencia y calidad de datos.
Experiencia atendiendo ajustes menores sobre dashboards y reportes existentes.
Experiencia trabajando con requerimientos definidos y bajo lineamientos técnicos o funcionales.
Experiencia coordinando con equipos técnicos o áreas fuente para entender origen y estructura de datos.
Profesión requerida (Incluir las certificaciones/ Licencias/ Registros): Ingeniería de sistemas, ingeniería electrónica y/o carreras afines

Habilidades o conocimientos obligatorios:

Manejo de Power BI / Tableau para construcción y mantenimiento de dashboards.
SQL intermedio.
Capacidad para trabajar con joins, filtros, agregaciones y validación de datos.
Excel avanzado.
Capacidad para construir dashboards completos cuando el requerimiento está claramente definido.
Capacidad para realizar consultas y validaciones de datos sobre fuentes existentes.
Capacidad para preparar datasets básicos para visualización.
Capacidad para documentar de manera simple fuentes y transformaciones realizadas.
Capacidad para identificar variaciones básicas en indicadores.
Capacidad para ejecutar tareas definidas con supervisión periódica.
Capacidad para escalar decisiones técnicas complejas, ambigüedades de diseño o necesidades de soporte especializado.
Capacidad para seguir lineamientos técnicos y funcionales.
Pensamiento lógico y estructurado.
Atención al detalle.
Buenas habilidades de comunicación.
Organización y seguimiento.
Disposición para aprendizaje técnico continuo.

Tecnologias que debe manejar

Power BI / Tableau
SQL
Oracle básico
Excel

Opcionales

  • Habilidades y/o conocimientos deseables:
  • Conocimientos básicos de PL/SQL.
  • Conocimientos básicos de Python para scripts simples, automatizaciones ligeras o validaciones puntuales de datos. Conocimientos básicos de modelado para consumo analítico.
  • Experiencia participando en células ágiles o esquemas colaborativos de trabajo.

Condiciones

Modalidad de contratación:03 meses con posibilidad de extension

$$$ Full time
Data Engineer (Pyspark, AWS)
  • Improving South America
Java Python MySQL SQL
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil. El/la BI Developer trabajará en proyectos orientados a inteligencia de negocio, visualización de datos y creación de dashboards impactantes que faciliten la toma de decisiones. Colaborará con equipos multifuncionales para entregar soluciones escalables y de alto valor para clientes internacionales, dentro de un entorno 100% remoto.
La empresa promueve una cultura de trabajo excepcional basada en el trabajo en equipo, la excelencia y la diversión, con enfoque en crecimiento personal y recompensas compartidas. Al integrarse, el/la candidato/a formará parte de una comunidad que prioriza la comunicación abierta y relaciones laborales sólidas a largo plazo, respaldada por una estructura de desarrollo profesional y aprendizaje continuo.

Job opportunity on getonbrd.com.

Responsabilidades del puesto

En Improving South America buscamo un/a Senior Data Engineer para diseñar y operar soluciones de datos de alta disponibilidad a escala global, trabajando con pipelines batch y streaming que procesan grandes volúmenes de información. El rol requiere experiencia construyendo pipelines robustos, trabajando con Kafka, PySpark y data warehouses en AWS, además de fuerte dominio de SQL y modelado de datos.

Responsabilidades del rol:

  • Diseñar y operar pipelines de datos batch y streaming.
  • Procesar grandes volúmenes de datos (billones de eventos diarios y datasets multi-terabyte).
  • Construir integraciones entre MySQL y Redshift.
  • Diseñar modelos de datos y optimizar consultas SQL.
  • Implementar estrategias de CDC, cargas incrementales y full loads.
  • Integrar datos mediante APIs internas y de terceros.
  • Diagnosticar fallas en pipelines, problemas de latencia y calidad de datos.
  • Colaborar en decisiones de arquitectura de datos.

Requerimientos del cargo

  • 7+ años de experiencia en Data Engineering.
  • Inglés intermedio/avanzado (B2/C1) para comunicación técnica.
  • Experiencia sólida con Python.
  • Experiencia con PySpark.
  • Experiencia trabajando con Kafka.
  • Experiencia con Redshift u otro data warehouse moderno.
  • Experiencia integrando MySQL → Redshift.
  • Dominio avanzado de SQL (modelado, optimización y queries complejas).
  • Experiencia en AWS y servicios de datos en la nube.
  • Experiencia diseñando pipelines ETL/ELT batch y streaming.
  • Experiencia con Glue, Step Functions o arquitecturas serverless en AWS.
  • Experiencia trabajando con herramientas de desarrollo asistidas por IA (ej. Cursor).
  • Experiencia en entornos de alto volumen de datos.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (Hybrid)
MySQL PostgreSQL NoSQL MongoDB

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Applications: getonbrd.com.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

Beneficios

En Zerviz nos preocupamos de que juntos podemos trabajar mejor y feliz, por eso contamos con beneficios acorde a las expectativas de nuestros colaboradores:

  • Seguro complementario de salud gratuito para el colaborador.
  • Aguinaldos (Fiestas Patrias y Navidad)
  • Día de cumpleaños libre
  • Permiso sin goce por mudanza.
  • Bonos de Nacimiento y Matrimonio
  • Convenios con Caja Los Andes y Mundo Achs
  • Snack y Frutas en la oficina.
  • Actividades de cultura organizacional
  • Beca de estudios para colaboradores
  • Programas de capacitación y formación continua.

Esto y muchos otros beneficios que podrás descubrir y acceder.

Wellness program Zerviz Technologies offers or subsidies mental and/or physical health activities.
Partially remote You can work from your home some days a week.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Dental insurance Zerviz Technologies pays or copays dental insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Zerviz Technologies offers beverages and snacks for free consumption.
Gross salary $2200 - 2800 Full time
Python SQL NoSQL Big Data

Interfell conecta empresas con el talento IT de LATAM, gestionando procesos de Staffing y Recruiting para impulsar el trabajo remoto y la transformación digital. Nuestro objetivo es potenciar la inclusión y el equilibrio vida-trabajo, brindando una experiencia de contratación integral y de alta calidad. Esta posición forma parte de un equipo enfocado en generar oportunidades de ventas y vínculos con potenciales clientes, contribuyendo al crecimiento de nuestras operaciones en la región.
Buscamos Ingeniero de Datos para un proyecto a tiempo determinado en el sector bancario, te unirás al equipo IT y ayudarás a crear data pipelines

-Tiempo del proyecto: 3 meses

-Remuneración por hora: 18$ - 40 horas semanales (8 horas diarias)

-Jornada: Lunes a Viernes

-Se trabaja por objetivos

Apply to this job opportunity at getonbrd.com.

Job functions

Funciones:

- Diseño, construcción y mantenimiento de pipelines de datos confiables y escalables a demanda.

-Optimización de procesos de almacenamiento y procesamiento de grandes volúmenes de datos.

Qualifications and requirements

Habilidades requeridas:

+3 años de experiencia como Ingeniero de datos

◦ Lenguajes: Python y SQL (Avanzado).

◦ Bases de Datos: SQL y NoSQL.

◦ Data Engineering: Desarrollo de pipelines ETL/ELT e integración de fuentes (APIs, sistemas internos/externos).

◦ Ecosistema: Big Data.

Desirable skills

◦ Nube: AWS, Azure o GCP (Deseable).

Conditions

Flexibilidad y autonomía

Pago USD

$$$ Full time
Data Engineer (Híbrido) – Santiago
  • Factor IT
  • Santiago (Hybrid)
Python Data Science Back-end Data Engineer
FactorIT es una empresa líder en soluciones de Data & Analytics, Transformación Digital e IA, con presencia en 8 países de Latinoamérica. Buscamos sumar a nuestro equipo a un Data Engineer para trabajar en proyectos de alto impacto en clientes corporativos, especialmente en el sector financiero y en iniciativas regionales de transformación tecnológica. El rol participará en la definición y ejecución de soluciones modernas de datos, automatización e inteligencia artificial, con enfoque en la entrega de valor real para los negocios y la mejora de procesos a través de pipelines escalables y soluciones basadas en IA.
En FactorIT fomentamos un entorno de aprendizaje continuo, colaboración y uso de tecnologías de vanguardia. El/la candidata trabajará en un entorno híbrido desde Santiago, colaborando con equipos multidisciplinarios para impulsar la gobernanza de datos, la calidad y la innovación tecnológica en la región.

Apply to this posting directly on Get on Board.

Qué harás

  • Diseñar, desarrollar y mantener pipelines de datos escalables en entornos modernos, asegurando rendimiento, fiabilidad y trazabilidad.
  • Implementar soluciones en Databricks para procesamiento y transformación de datos, optimizando cargas y costos.
  • Desarrollar integraciones mediante APIs para consumo y exposición de servicios, facilitando el acceso a datos para aplicaciones y usuarios.
  • Automatizar flujos de trabajo y procesos de datos, idealmente utilizando herramientas como n8n, para mejorar la eficiencia operativa.
  • Participar en la implementación de soluciones basadas en IA (OpenAI, Gemini) para casos de negocio y automatización inteligente.
  • Colaborar en iniciativas de arquitectura de datos, diseño de modelos y buenas prácticas de ingeniería de datos.
  • Apoyar en la gestión, calidad y gobierno de datos; experiencia deseable con herramientas de gobierno como Purview.
  • Trabajar de forma colaborativa con equipos técnicos y de negocio para garantizar alineación con objetivos estratégicos.

Requisitos y perfil

Buscamos un perfil con experiencia en ingeniería de datos y/o arquitectura de datos, acostumbrado a trabajar en proyectos complejos y con capacidad de aprender de forma continua. Requisitos clave:
  • Dominio de Python para procesamiento y manipulación de datos.
  • Experiencia práctica con Databricks y entornos de nube, con enfoque en pipelines y transformación de datos.
  • Experiencia en integración y consumo de APIs para exposición de servicios y datos.
  • Conocimientos en automatización de flujos de trabajo (idealmente con n8n).
  • Interés o experiencia en el uso de modelos y servicios de IA (OpenAI, Gemini u otros).
  • Conocimientos en gobierno de datos (opcional: Purview u otras herramientas).
  • Habilidades analíticas, proactividad, autonomía y capacidad de aprendizaje continuo en tecnologías emergentes.
  • Buenas habilidades de comunicación y trabajo en equipo, orientación a resultados y capacidad para colaborar en contextos multidisciplinarios.

Deseables

Se valorará experiencia previa en entornos financieros, conocimiento de herramientas de orquestación y experiencia trabajando con datos estructurados y no estructurados, así como experiencia en proyectos de IA aplicados a negocio y en conformidad con marcos de gobernanza de datos.

Qué ofrecemos

Modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre vida profesional y personal. Ambiente colaborativo y dinámico con oportunidades de crecimiento y aprendizaje continuo. Equipo y proyectos innovadores de datos e IA, exposición a tecnologías modernas y clientes de alto nivel. Paquete salarial competitivo acorde a experiencia, cultura inclusiva, diversidad y trabajo en equipo. Participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero.

$$$ Full time
Cloud Data Engineer
  • WiTi
  • Lima (Hybrid)
Python SQL Virtualization Amazon Web Services

WiTi conecta talento tecnológico con proyectos de alto impacto en Latinoamérica. Nuestro equipo se enfoca en la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles, con énfasis en resolver problemas complejos a través de soluciones innovadoras.

Este rol forma parte de un equipo responsable de modernizar un ecosistema analítico legado hacia una arquitectura cloud en AWS, con foco en estandarización, performance y escalabilidad. El proyecto implica migrar y optimizar la lógica de bases de datos preexistentes hacia Amazon Redshift, contribuyendo a la automatización del proceso y garantizando la calidad, consistencia y rendimiento de los datos.

Exclusive to Get on Board.

Responsabilidades Clave

  • Analizar y comprender procesos analíticos existentes (en SQL u otros entornos heredados) para reestructurarlos sobre Amazon Redshift.
  • Convertir y optimizar lógica SQL hacia estándares compatibles con Redshift, aplicando buenas prácticas de modelado y rendimiento.
  • Diseñar y documentar enfoques repetibles para la migración de consultas y estructuras de datos (catálogo de reglas, patrones de transformación).
  • Colaborar en tareas de automatización de migraciones (scripts en Python, templates SQL, validaciones automáticas, pipelines CI/CD).
  • Mantener y mejorar procesos ETL/ELT en AWS, apoyándose en servicios como Glue, Lambda, Step Functions y S3.
  • Validar resultados de conversión mediante controles de reconciliación y pruebas de calidad de datos.
  • Documentar decisiones técnicas, reglas de conversión y excepciones para asegurar trazabilidad y mantenibilidad del proceso.

Requisitos Excluyentes

  • 3+ años de experiencia como Ingeniero de Datos o rol equivalente.
  • Dominio avanzado de SQL estándar (uniones complejas, funciones de ventana, CTE, tuning, lectura de planes de ejecución).
  • Experiencia práctica con Amazon Redshift (particionamiento, distribución, optimización de consultas y almacenamiento).
  • Conocimientos sólidos de procesos ETL/ELT en entornos cloud, idealmente AWS. Experiencia en proyectos orientados a migración o modernización de plataformas de datos.
  • Conocimientos en Python para scripting y automatización de validaciones.
  • Nivel intermedio o superior de inglés técnico.

Deseables

  • Experiencia con DataOps, manejo de pipelines (Airflow, Step Functions o similares).
  • Familiaridad con herramientas de Infraestructura como Código (Terraform, CloudFormation).
  • Experiencia en gobierno de datos, nomenclaturas y validaciones automáticas de calidad.
  • Capacidad de documentar y estandarizar procesos en contextos corporativos.

Beneficios

En WiTi fomentamos una cultura de aprendizaje continuo, colaboración y crecimiento profesional. Entre los beneficios se pueden incluir:

  • Plan de carrera y oportunidades de desarrollo profesional.
  • Acceso a certificaciones y formación continua.
  • Cursos de idiomas y acceso a biblioteca digital para tu desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
JavaScript Python Analytics Data Analysis

WiTi es una empresa chilena de tecnología con presencia en Chile, Uruguay y Colombia, dedicada a la innovación en software y soluciones tecnológicas.

Formamos parte de un equipo que presta servicios a clientes de primer nivel y trabajamos con un enfoque ágil para impulsar soluciones de analítica digital y BI en grandes retailers con operaciones en múltiples países de Latinoamérica.

El proyecto actual se centra en analizar el comportamiento de usuarios en canales digitales (Web y App) para optimizar la experiencia de compra de millones de clientes a través de e-commerce. El Business Analyst reporta al equipo de Digital Analytics & BI y colabora con equipos de desarrollo, marketing y producto para asegurar que las estrategias de medición sean correctas, que el tagging y los pixeles se implementen adecuadamente y que existan dashboards útiles y accionables.

Apply to this job from Get on Board.

Funciones y responsabilidades

  • Generar documentos de marcaje basados en estrategias de medición para equipos de desarrollo.
  • Gestionar y hacer seguimiento del tagging con equipos técnicos y proveedores externos cuando aplique.
  • Implementar tagging y píxeles usando Google Tag Manager (GTM) para Web y App.
  • Analizar datos para identificar quiebres en la experiencia y proponer mejoras concretas.
  • Crear dashboards y visualizaciones sobre el comportamiento de usuarios en Web y App para soportar la toma de decisiones.
  • Realizar seguimiento al embudo de compra en distintos e-commerce y monitorizar KPIs de conversión y retención.
  • Buscar proactivamente oportunidades de mejora y priorizar iniciativas en colaboración con stakeholders.
  • Realizar QA continuo del marcaje para garantizar datos precisos y confiables.

Requisitos Excluyentes

  • Al menos 1 año de experiencia en roles de Business Analyst o similares.
  • Experiencia en análisis de experiencia de usuario y medición de datos en entornos de retail y e-commerce.
  • Conocimiento intermedio de Google Analytics.
  • Conocimiento intermedio de Google Tag Manager.
  • Conocimiento intermedio de BigQuery.
  • Conocimiento intermedio de Looker.
  • Manejo de SQL a nivel intermedio.

Requisitos Deseables

  • Nivel de inglés avanzado.
  • Experiencia con JavaScript para implementación en Google Tag Manager.
  • Conocimientos de Python para soporte de scripts de análisis y automatización de datos.
  • Experiencia en creación de dashboards avanzados y storytelling de datos para stakeholders de negocio.
  • Capacidad para trabajar con datasets grandes y complejos, y optimizar consultas en BigQuery.
  • Comprensión de modelos de atribución.
  • Habilidad para comunicar hallazgos de negocio a distintas audiencias.
  • Experiencia en entornos ágiles y mentalidad orientada a la mejora continua.
  • Buenas habilidades de comunicación en español e inglés.
  • Experiencia en contextos multicanal (Web, App, Marketing).

Beneficios

En WiTi, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Sr Data Engineer – CRM Customer Service
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con experiencia en servicios IT, outsourcing y selección de profesionales. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, con clientes en servicios financieros, seguros, retail y gobierno. Buscamos incorporar a nuestro equipo a un/a SR Data Engineer con fuerte enfoque en CRM y migración de datos para proyectos de CRM Customer Service, entre otros clientes de alto nivel. El rol forma parte de iniciativas de modernización de datos, migración a la nube y fortalecimiento de la gobernanza de datos para un programa orientado a soluciones de experiencia del cliente.

This job is exclusive to getonbrd.com.

Funciones principales

  • Diseñar y desarrollar pipelines ETL/ELT para integración y migración de datos.
  • Ejecutar migración de datos desde sistemas legados hacia plataformas cloud y Dynamics 365.
  • Asegurar integridad, calidad y disponibilidad de los datos mediante validaciones y reconciliaciones.
  • Colaborar con el Technical Lead en la arquitectura de datos del programa.
  • Documentar modelos de datos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles y reportar avances del frente de datos.
  • Colaborar con QA en validación end-to-end de datos.
  • Transferir conocimientos de datos al equipo.

Descripción

Requerimos un/a profesional con al menos 4 años de experiencia en ingeniería de datos, con prioridad en entornos CRM y retail. El/la candidato/a será responsable de diseñar e implementar pipelines para extracción, transformación y carga de datos, así como gestionar migraciones complejas desde sistemas legados hacia entornos en la nube y Microsoft Dynamics 365 Dataverse. Se integrará a un equipo técnico colaborativo, participando en la definición de la arquitectura de datos, la aseguración de calidad y la entrega continua mediante prácticas CI/CD aplicadas a datos. Se valorará experiencia en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions), Airflow o Step Functions para orquestación, Python y Spark/PySpark, manejo de SQL avanzado, modelado dimensional y relacional, y conocimiento de Dynamics 365.
Buscamos proactividad, orientación a resultados y habilidades de comunicación para trabajar en un entorno ágil y multi-funcional, con foco en la entrega de valor al negocio y una cultura de mejora continua.

Requisitos deseables

Experiencia en migración de datos entre sistemas ERP/CRM a plataformas en la nube; familiaridad con governance de datos, reconciliaciones y validación de datos de extremo a extremo; experiencia con teams y stakeholders de negocio; certificaciones en AWS o Data & Cloud; capacidad de documentación clara y ordenada; conocimientos de Microsoft Dynamics 365 Dataverse. Se valorará experiencia en retail y servicios de CRM, y habilidad para trabajar en entornos regulados.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Data Engineer Senior
  • Grupo Mariposa
Git SQL QA BigQuery

Somos una corporación multinacional de bebidas y alimentos con operaciones regionales, un portafolio amplio de marcas y una estrategia acelerada de transformación digital. Dentro de Apex Digital / M5, el área de Data & Analytics habilita productos analíticos, datos gobernados y capacidades avanzadas para las unidades de negocio, incluyendo CBC, Beliv, BIA y las iniciativas transversales de transformación digital.

Send CV through Get on Board.

Funciones del cargo

1. Diseñar e implementar soluciones de ingeniería de datos escalables, eficientes y mantenibles utilizando tecnologías de Google Cloud, tales como:
  • Cloud Dataflow / Apache Beam (procesamiento distribuido ETL/ELT)
  • BigQuery (almacenamiento, warehouse y motor analítico)
  • Cloud Storage (Data Lake)
  • Dataproc (Spark administrado, cuando aplique)
  • BigQuery / Data Catalog (gobernanza y catalogación)
2. Aplicar modelos de arquitectura por capas (Bronze / Silver / Gold) en un Lakehouse basado en Google Cloud

  • Implementación de un Data Lake en Cloud Storage.
  • Transformaciones intermedias y normalización en Dataflow / Dataproc para capa silver.
  • Exposición de capas refinadas en BigQuery para capa gold orientada a analítica, BI y ML.
  • Definición de estándares de naming, particionamiento, clustering y particionado por tiempo.

3. Automatizar ETL/ELT con enfoques modernos de data engineering

  • Orquestación modular y escalable con Cloud Composer (Airflow).
  • Pipelines idempotentes, reproducibles y versionados.
  • Implementación de validaciones de calidad de datos (DQ) usando:
  • BigQuery Assertions
  • Great Expectations (si aplica)
  • Cloud Composer operators
  • Manejo de Slowly Changing Dimensions (SCD1/SCD2) mediante SQL en BigQuery o Dataflow.
  • Integración CI/CD para despliegue de DAGs, jobs y transformaciones.
4. Garantizar datos confiables, gobernados y optimizados en costos y performance

  • Optimización de costos en BigQuery mediante clustering, particionado y control de consultas.
  • Optimización de Dataflow (autoscaling, tuning, fusión de etapas, ventanas y triggers).
  • Seguridad y gobernanza con Dataplex, IAM y Data Catalog.
  • Documentación robusta del linaje, arquitectura y flujos de datos.
  • Aplicación de estándares de ingeniería:
    • PEP8 para Python
    • Buenas prácticas de SQL
    • Gestión de código con Git / GitFlow
    • Testing y validación automatizada

Requerimientos del cargo

  • Coordinar y operar los entornos de datos (dev/qa/prod), asegurando estabilidad, monitoreo y correcto funcionamiento de los pipelines.
  • Extraer, transformar y cargar datos según las necesidades del negocio, aplicando arquitectura por capas (Bronze/Silver/Gold).
  • Construir integraciones eficientes entre sistemas, APIs y fuentes internas/externas, garantizando integridad y disponibilidad.
  • Implementar flujos CI/CD para despliegue seguro de pipelines y validación automatizada de datos y código.
  • Mentorizar a ingenieros junior en buenas prácticas, estándares de calidad y diseño escalable.
  • Proponer e implementar mejoras tecnológicas que optimicen performance, costos y gobernanza de datos.

Principales Retos

  • Integrar diversas fuentes de datos y asegurar su consistencia.
  • Diseñar y mantener un Lakehouse escalable (Bronze/Silver/Gold).
  • Optimizar performance y costos en BigQuery y procesos de ingesta.
  • Orquestar y monitorear flujos complejos de datos de extremo a extremo.
  • Garantizar calidad, linaje y gobernanza en todos los datasets.
  • Habilitar datos confiables para analítica, BI y productos digitales.
  • Escalar y evolucionar la arquitectura conforme crezcan los casos de uso.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Grupo Mariposa pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
$$$ Full time
Ingeniero de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile SQL Oracle
En BC Tecnología diseñamos equipos de trabajo ágiles para servicios IT, con foco en Infraestructura, Desarrollo de Software y Unidades de Negocio para clientes en Finanzas, Seguros, Retail y Gobierno. Nuestro objetivo es entregar soluciones de alto impacto mediante consultoría, desarrollo de proyectos, outsourcing y selección de personal.
Como parte de nuestro programa CRM Customer Services migramos y consolidamos datos a plataformas cloud (AWS) y Dynamics 365 Dataverse, garantizando integridad, calidad y disponibilidad de la información para operaciones y analítica. Participarás en iniciativas innovadoras con clientes de alto nivel, con enfoque en aprendizaje continuo y desarrollo técnico dentro de un entorno colaborativo y orientado al cliente. La modalidad híbrida permite combinar trabajo remoto con presencia en nuestras oficinas para fomentar colaboración y dinamismo.

Applications: getonbrd.com.

Funciones

  • Diseñar, desarrollar y ejecutar procesos de ingeniería de datos y migración requeridos por el programa CRM Customer Services, asegurando la integridad, calidad y disponibilidad de los datos en plataformas cloud.
  • Conocimientos técnicos: ingeniería de datos en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions); ETL/ELT para diseño y desarrollo de pipelines de datos; migración de datos entre sistemas legados y plataformas cloud; SQL avanzado y modelado de datos (dimensional, relacional).
  • Desarrollar pipelines en Python y Spark/PySpark, aplicar calidad de datos (validación, limpieza, reconciliación, profiling) y utilizar herramientas de orquestación (Airflow, Step Functions); control de versiones y CI/CD aplicado a datos.
  • Conocer Microsoft Dynamics 365 Dataverse y su modelo de datos; diseñar y ejecutar migraciones desde sistemas legados hacia plataformas cloud y Dynamics 365; documentar modelos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles, reportar avances y colaborar con QA para validación end-to-end; transferir conocimiento de datos al equipo y colaborar estrechamente con el Technical Lead en la arquitectura de datos del programa.

Requisitos y perfil

Buscamos un profesional con experiencia sólida en ingeniería de datos en entornos cloud, especialmente AWS, y en proyectos de migración de datos hacia soluciones modernas de nube y CRM. Debes dominar pipelines ETL/ELT, modelado de datos relacional y dimensional, y tener capacidad para trabajar en entornos dinámicos y colaborativos. Se valorará experiencia con Oracle/Siebel, Great Expectations o Deequ para calidad de datos, y conocimiento del sector Retail. Debes ser proactivo, orientado a resultados, con habilidades de comunicación para trabajar con equipos multidisciplinarios y stakeholders.
Requisitos mínimos: experiencia en AWS Data Analytics/Data Engineering; diseño y migración de datos entre sistemas; SQL avanzado; Python o Spark; experiencia con herramientas de orquestación; familiaridad con Dynamics 365 Dataverse; experiencia en entornos ágiles y capacidad para documentar procesos y modelos de datos. Deseable certificación AWS Data Analytics, experiencia en migración desde Oracle/Siebel y conocimiento de herramientas de calidad de datos. Se valora experiencia en Retail y en entornos de CRM.

Conocimientos Deseables

Certificación AWS Data Analytics o Data Engineering. Experiencia migrando datos desde Oracle/Siebel. Conocimiento en herramientas de calidad de datos como Great Expectations o Deequ. Experiencia en el sector Retail. Conocimiento adicional en DevOps de datos y metodologías ágiles. Habilidad para trabajar en equipos multiculturales y capacidad de explicar conceptos técnicos a audiencias no técnicas. Se valora experiencia en arquitectura de datos para CRM y en gestión de proyectos de migración complejos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Data Operational Engineer
  • TIMINING
  • Santiago (Hybrid)
Python Git SQL Web server

En TIMining, trabajamos para convertir la información operativa de las faenas mineras en valor accionable a través de nuestras plataformas de control y monitoreo. Este rol se integra al equipo de datos, aportando en el diseño, desarrollo y operación de pipelines ETL que integran fuentes diversas hacia las bases de datos y productos de TIMining. Serás parte de un proyecto orientado a la continuidad operativa, la calibración de algoritmos y la automatización de procesos internos para optimizar el flujo de trabajo del cliente y del equipo.

Apply exclusively at getonbrd.com.

Funciones

  • Desarrollar, mantener y documentar scripts en Python y SQL (conectores) para ETL hacia las bases de datos de los productos de TIMining.
  • Diseñar, implementar y mantener flujos de CI/CD para que los cambios en las pipelines lleguen a producción de forma segura y automatizada.
  • Monitorear la salud y rendimiento de procesos de datos (logging y alerting), garantizando uptime y respuestas ante incidentes operativos.
  • Administrar y orquestar pipelines con herramientas de planificación (Airflow, Dagster) y contenedores (Docker).
  • Validar resultados de pipelines (cualitativa y cuantitativamente) comparando con reportes operacionales de faenas.
  • Identificar, evaluar y mitigar riesgos en el desarrollo de pipelines, contemplando calidad de datos y planes de contingencia.
  • Desarrollar proyectos internos para automatizar labores rutinarias y simplificar el trabajo del equipo.
  • Asistir y presentar en reuniones técnicas con clientes para gestionar accesos a fuentes de información y resolver consultas.
  • Analizar y documentar fuentes de información del cliente por sistema (FMS, MGS u otras) y calibrar algoritmos de los softwares de la empresa.
  • Ejecutar turnos 24/7 para asegurar continuidad operativa.

Requisitos y experiencia

Formación en Ingeniería en Ciencia de Datos, Ingeniería Civil o carreras afines en computación. Se requieren mínimo 2 años de experiencia en cargos similares y experiencia comprobable en la implementación de pipelines ETL. Se valora conocimiento y manejo avanzado de Python y SQL, experiencia práctica en despliegue de aplicaciones y manejo de contenedores, así como experiencia en orquestación de datos con herramientas como Apache Airflow o Prefect. Dominio de control de versiones (Git) y trabajo colaborativo, consultas a APIs y bases de datos avanzadas. Conocimientos de Google Suite y Office. Habilidades analíticas, proactividad y capacidad para trabajar de forma autónoma y en equipo. Idiomas: Español nativo; Inglés deseable (upper-intermediate).

Se buscan candidatos con experiencia en proyectos tecnológicos y conocimiento de la industria minera a cielo abierto, además de experiencia con arquitecturas Cloud (AWS, Azure o GCP) e Infraestructura como Código (Terraform, CloudFormation).

Requisitos deseables

Experiencia en:
- Implementación de proyectos tecnológicos.
- Conocimiento de la industria minera y su operación.
- Familiaridad con metodologías ágiles, y experiencia con herramientas de Infraestructura como Código.
- Deseable conocimiento en soluciones de monitoreo y en entornos de producción de datos a gran escala.

Beneficios

Ofrecemos un entorno enfocado a innovación en la industria minera, con oportunidades de desarrollo profesional y trabajo en equipo multidisciplinario. Si cumples con el perfil, te invitamos a formar parte de TIMining y contribuir a la transformación digital de operaciones mineras.

Gross salary $3000 - 4000 Full time
Senior Data Engineer
  • Artefact LatAm
Python Big Data English Back-end

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Engineer tendrá la responsabilidad de liderar el desarrollo de proyectos de Big Data con clientes, diseñando y ejecutando arquitecturas de datos que sirvan como puente entre la estrategia empresarial y la tecnología, bajo los principios de gobernanza de datos establecidos por los clientes. Además, será responsable de diseñar, mantener e implementar estructuras de almacenamiento de datos tanto transaccionales como analíticas. Este rol implica trabajar con grandes volúmenes de datos provenientes de diversas fuentes, procesarlos en entornos de Big Data y traducir los resultados en diseños técnicos sólidos y datos consistentes. También se espera que revise la integración consolidada de datos y describa cómo la interoperabilidad capacita a múltiples sistemas para comunicarse entre sí.

Job source: getonbrd.com.

Tus responsabilidades serán:

  • Diseñar arquitecturas de datos que cumplan con los requisitos de los clientes y se alineen con su estrategia empresarial, asegurando la adherencia a los principios de gobernanza de datos.
  • Diseñar, implementar, mantener y actualizar estructuras de almacenamiento de datos transaccionales y analíticas, garantizando la integridad y disponibilidad de los datos.
  • Extraer datos de diversas fuentes y transferirlos eficientemente a entornos de almacenamiento de datos.
  • Diseñar e implementar procesos que soporten grandes volúmenes de datos en entornos de Big Data, utilizando herramientas y tecnologías pertinentes en cada proyecto.
  • Comunicar hallazgos, resultados y diagnósticos efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Colaborar con equipos multidisciplinarios en la gestión estratégica de proyectos, asegurando la entrega oportuna y exitosa de soluciones de datos.
  • Desarrollar y mantener soluciones en la nube y on premise.
  • Utilizar metodologías ágiles para el desarrollo y entrega de soluciones de datos, adaptándose rápidamente a los cambios y requisitos del proyecto.
  • Apoyar al equipo traspasando conocimientos y buenas prácticas, apoyando en la capacitación y aprendizaje continuo según las necesidades individuales de los miembros
  • Gestionar al equipo mediante una planificación estratégica del proyecto, asegurando una distribución eficiente de tareas y una comunicación clara de los objetivos.

Los requisitos del cargo son:

  • Experiencia mínima de 3 años en el uso de herramientas de gestión de datos.
  • Experiencia previa en la gestión estratégica de equipos multidisciplinarios.
  • Conocimientos avanzados de Python o Pyspark y experiencia en su aplicación en proyectos de datos.
  • Experiencia en el diseño e implementación data warehouse, data lakes y data lake house
  • Desarrollo de soluciones de disponibilización de datos.
  • Experiencia práctica con al menos uno de los principales almacenes de archivos en la nube.
  • Buen manejo del inglés.

Algunos deseables no excluyentes:

  • Experiencia en consultoría y/ proyectos de estrategia o transformación digital
  • Experiencia con servicios de procesamiento y almacenamiento de datos de AWS o GCP, Azure
  • Certificaciones

Algunos de nuestros beneficios:

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros (Chile).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $2000 - 2200 Full time
Business Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Excel SQL
BC Tecnología es una consultora de TI con personal experto en diferentes áreas tecnológicas, dedicada a servicios IT, administración de portafolio, desarrollo de proyectos, outsourcing y selección de profesionales. Nos especializamos en crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Buscamos aportar en proyectos innovadores con altos estándares de calidad y enfoque en cambios organizacionales y desarrollo de productos. Esta posición se desempeña dentro de un entorno de proyectos por contrato y enfocado a resultados de negocio de clientes de alto nivel.

Exclusive offer from getonbrd.com.

Funciones

Como Business Analyst, tendrás foco en producto, orientado a la calidad funcional y a la mejora continua de aplicaciones digitales. Serás responsable de asegurar la calidad funcional de aplicaciones web y móviles, analizar, documentar y optimizar flujos de usuario, gestionar bugs end-to-end y apoyar la priorización de iniciativas con foco en el impacto de negocio. Participarás en ceremonias ágiles, colaborarás con equipos multifuncionales y asegurarás trazabilidad de requerimientos y métricas de aceptación. Deberás trabajar de forma colaborativa con PMs, TA/QA y desarrollo para alinear entregables con las expectativas de negocio y usuarios finales, manteniendo una comunicación clara con stakeholders y respaldando las decisiones con datos.

Requisitos

Al menos 3 años de experiencia como Business Analyst. Experiencia en análisis de negocio y mejora de procesos. Conocimiento en QA funcional (no excluyente). Manejo de SQL (intermedio). Deseable Python. Experiencia con Jira, Postman y Excel avanzado. Capacidad para documentar procesos, mapear flujos y definir criterios de aceptación claros. Habilidad para trabajar en entornos ágiles y facilitar reuniones de priorización. Orientación a resultados, pensamiento analítico, comunicación efectiva y habilidades para trabajar con clientes y equipos multidisciplinarios. Se valorará experiencia en entornos financieros y conocimiento de herramientas de automatización de pruebas.

Deseables

Deseables: experiencia previa en análisis de productos digitales, conocimientos de metodologías de diseño centrado en el usuario, experiencia en automatización de pruebas y familiaridad con herramientas de pruebas de rendimiento. Capacidad de trabajar de forma proactiva, con iniciativa, y habilidades para gestionar múltiples iniciativas simultáneamente. Bilingüe español-inglés es un plus, al trabajar con clientes y equipos internacionales.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
Python Analytics Virtualization Amazon Web Services
FactorIT, una empresa líder en tecnología y soluciones de datos con presencia en 8 países de Latinoamérica, busca ampliar su equipo con un Arquitecto de Datos. Serás parte de proyectos regionales de transformación digital, trabajando en entornos Cloud para una cartera diversificada, especialmente en el sector financiero. Participarás en iniciativas que combinan analítica avanzada, automatización e IA, enfocados en entregar soluciones escalables y seguras que generan valor real para nuestros clientes. Formarás parte de un equipo colaborativo, orientado a la innovación, con oportunidades de desarrollo profesional y exposición a tecnologías de última generación.

Job source: getonbrd.com.

Principales responsabilidades

  • Diseñar arquitecturas de datos en entornos cloud que sean escalables, seguras y alineadas con las necesidades del negocio.
  • Definir e implementar pipelines de datos (ETL/ELT) para ingesta, procesamiento y distribución eficiente de datos.
  • Modelar datos para analítica avanzada y consumo por herramientas de BI y ciencia de datos.
  • Asegurar la calidad, gobernanza y disponibilidad de los datos mediante prácticas de Data governance y data quality.
  • Colaborar con equipos de ingeniería, analítica y negocio para convertir requerimientos en soluciones técnicas efectivas.
  • Evaluar e incorporar tecnologías y herramientas de datos emergentes (data lake/warehouse, data catalog, data virtualization).
  • Participar en la definición de estrategias de DataOps y MLOps cuando aplique, para operaciones de datos y modelos de ML.

Descripción

Buscamos un profesional con experiencia sólida en Arquitectura de Datos para liderar la definición de soluciones de datos en un entorno cloud. El/la candidato/a ideal tendrá habilidad para traducir requerimientos de negocio en arquitecturas eficientes, con foco en gobernanza, calidad y seguridad de los datos. Deberá colaborar estrechamente con equipos de ingeniería, analítica y negocio para garantizar que las soluciones soporten analítica avanzada, reporting y modelos de ML. Se valorará experiencia en entornos financieros y capacidad para trabajar en proyectos regionales con impacto real.
Requerimos dominio de procesos ETL/ELT, experiencia en modelamiento de datos relacional y no relacional, y experiencia en diseño de data lakes y/o data warehouses. Se espera manejo de Python para procesamiento de datos, y experiencia con herramientas nativas de AWS, Azure o GCP. Será clave una mentalidad de Data Governance, calidad de datos y prácticas de seguridad para evitar riesgos de cumplimiento y expose a datos sensibles. Buscamos perfiles orientados a resultados, con capacidad de comunicar complejas soluciones técnicas a stakeholders de negocio y con ganas de aprender y adaptarse a tecnologías emergentes.

Deseables

Experiencia con herramientas como Spark, Databricks o similares. Conocimiento en DataOps y/o MLOps. Experiencia en arquitecturas modernas (Lakehouse, Data Mesh). Inglés intermedio o superior.

Beneficios

Ofrecemos una modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre la vida profesional y personal. Ambiente colaborativo, dinámico y con tecnologías de última generación que facilitan el crecimiento profesional y la innovación tecnológica. Paquete salarial competitivo acorde a experiencia y perfil, y una cultura inclusiva que valora la diversidad y el trabajo en equipo. Al unirte, participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y el sector financiero, dentro de una organización que fomenta la innovación y el desarrollo profesional continuo.

$$$ Full time
Python SQL Virtualization Amazon Web Services

Con más de 10 años de experiencia impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y Latinoamérica, Devsu ha desarrollado soluciones de alto impacto en sectores como el entretenimiento, la banca, la salud, el comercio minorista, la educación y los seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de un aprendizaje continuo y de participar en proyectos desafiantes y de gran impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en una variedad de productos y soluciones de software.

Estamos en búsqueda de un Arquitecto de Datos con experiencia comprobada en la plataforma Stratio y en arquitecturas de datos basadas en Amazon Web Services (AWS).

Find this vacancy on Get on Board.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en tiempo real (NRT) y por lotes usando Spark.
  • Diseñar y evolucionar arquitecturas de datos utilizando Stratio Data Fabric.
  • Construir y optimizar pipelines de datos en AWS: ingestión, transformación, almacenamiento y exposición.
  • Implementar políticas de seguridad, calidad y gobierno de datos.
  • Colaborar con equipos de desarrollo, analítica y DevOps para asegurar integración y despliegues eficientes.
  • Documentar arquitecturas, modelos de datos y decisiones técnicas clave.
  • Liderar la toma de decisiones sobre herramientas, patrones y estándares tecnológicos.

Requerimientos del cargo

  • +5 años de experiencia en arquitectura de datos.
  • Experiencia práctica con Stratio Platform: configuración, virtualización, gobierno de datos, etc.
  • Sólidos conocimientos en servicios de AWS: S3, Glue, Redshift, Lambda, Athena, Kinesis, EMR, IAM.
  • Dominio en arquitecturas basadas en eventos, procesamiento en tiempo real (real-time), Data Lakes y Lake Houses.
  • Experiencia con herramientas de infraestructura como código: Terraform o CloudFormation.
  • Conocimiento en lenguajes y frameworks como: Python, SQL, Spark / PySpark.

Requisitos deseables:

  • Certificaciones AWS (ej. Data Analytics, Solutions Architect).
  • Experiencia previa en banca, seguros o telecomunicaciones (telcos).
  • Conocimiento en herramientas de visualización como Power BI, Looker o Tableau.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
$$$ Full time
Python Git BigQuery ETL
Codeable es una escuela de programación de alta calidad que invierte en sus estudiantes y los entrena como software developers altamente empleables. Durante 6 meses, nuestros estudiantes aprenden las habilidades más demandadas por la industria tecnológica, graduándose con la capacidad de generar valor en entornos de trabajo globales y altamente competitivos. A la fecha, Codeable ha graduado a más de 120 estudiantes en sus primeras 4 promociones, y estamos listos para escalar nuestra oferta inclusiva y graduar a más de 200 estudiantes durante el 2022.

Official job site: Get on Board.

Funciones

  • Diseñar, construir y mantener pipelines ETL/ELT utilizando Airflow, Prefect o Cloud Composer.
  • Desarrollar procesos de extracción de datos mediante Python: scripting, scraping automatizado (Playwright, Puppeteer o Selenium) y consumo de APIs.
  • Implementar y optimizar transformaciones sobre CSV/JSON y estructuras heterogéneas.
  • Administrar y optimizar datasets en Google BigQuery: creación de tablas, relaciones, vistas materializadas y performance tuning.
  • Trabajar con DataFrames en pandas o PySpark para manipulación y limpieza de datos.
  • Implementar automatización de tareas (cronjobs, DAGs, Cloud Functions).
  • Crear scripts de validación, depuración y normalización de datos.
  • Colaborar con equipos de Data Science / BI para habilitar análisis avanzados (incluyendo sentiment analysis y clasificación básica de texto).
  • Documentar la trazabilidad, linaje y estructura del flujo de datos.
  • Mantener buenas prácticas de control de versiones y despliegue con Git y CI/CD.

Descripción

Buscamos un/a Data Engineer con experiencia en el diseño, construcción y mantenimiento de pipelines de datos de alta calidad. Serás responsable de la extracción, transformación, carga y orquestación de datos provenientes de diversas fuentes (APIs, scraping, archivos, plataformas). Trabajarás en la automatización, optimización y documentación de procesos, proponiendo mejoras técnicas y asegurando estándares de calidad en todo el flujo de datos.

Requisitos deseables

  • Conocimiento de OAuth2, tokens, paginación y manejo de rate limits.
  • Familiaridad con NLP básico: sentiment analysis, clasificación de texto, transformers o NLTK/spaCy.
  • Conocimientos de R o Node.js para integraciones adicionales.

Nuestros Valores

  • Ponemos a las personas primero. Nos preocupamos, estamos abiertos y alentamos a todas las personas con las que trabajamos
  • Pensamos y actuamos con responsabilidad. Somos responsables de identificar los problemas y hacemos todo lo posible para ayudar a resolverlos
  • Mejoramos todos los días. Creemos que todos tenemos la capacidad de mejorar y estamos motivados a ayudar a todos a ser la mejor versión de sí mismos
  • Estamos comprometidos con la diversidad. Contribuimos a un mundo en el que podamos ser nosotros mismos, juntos
  • Estamos todos JUNTOS en esto. Somos una comunidad de estudiantes, emprendedores y tecnólogos unidos por la misma misión: cerrar la brecha entre el talento y las oportunidades en tecnología en Latinoamérica

Fully remote You can work from anywhere in the world.
Gross salary $4000 - 6000 Full time
Data Platform Engineer
  • InTune Analytics
Python SQL ETL Data governance

InTune Analytics (ITA) is a live entertainment technology company operating as a market maker in the secondary ticket market. We are a small, high-conviction team building proprietary technology to shape the future of live entertainment, with a 10-year goal of impacting 50 million lives by 2035. We don't have a traditional customer base and we don't advertise. Our reputation is built on the quality of our people, the strength of our partnerships, and our relentless drive to execute.

We are seeking a Data Platform Engineer who brings strong foundations in data engineering, analytics engineering, and data infrastructure. The ideal candidate will be adept at designing and building the systems that power reliable, trustworthy data across the organization, from pipelines and warehouses to semantic models and governance frameworks. You will play a pivotal role in making data a durable strategic asset, enabling teams to make confident, data-driven decisions at scale.

This job is available on Get on Board.

What Success Looks Like:

  • A clear company data catalog exists and is actively used by internal teams
  • Data pipelines are reliable, monitored, and failures are caught before reaching stakeholders
  • Business metrics are standardized and consistently defined across tools and teams
  • Data quality issues are caught early through automated checks and alerting

Technically, you:

  • Own and evolve the company data architecture, including warehouse structure, schema design, and data modeling standards
  • Build and maintain a semantic data layer that translates raw data into consistent, business-ready metrics using dbt
  • Design, build, and monitor reliable data pipelines and ETL processes that deliver data to downstream consumers
  • Implement data quality checks, observability, and alerting so issues are caught before they reach business users
  • Build and maintain a company-wide data catalog, driving data governance, lineage, and ownership practices

At a minimum, you have:

  • 3+ years of experience in data engineering, analytics engineering, or data platform development
  • Strong proficiency in SQL and Python
  • Hands-on experience with dbt and a modern data warehouse (Snowflake, BigQuery, or Redshift)
  • Experience with a pipeline orchestration tool (Airflow, Dagster, or Prefect)
  • Familiarity with event pipelines or streaming data
  • Strong communication skills in English

Benefits

Core Benefits (Available Globally) Performance Bonus Bonuses are based on overall performance and contribution during the year. Unlimited Paid Time Off (PTO) ITA offers flexible, unlimited PTO. Remote Work & Workspace Support Home Office Support ITA may provide financial support for home office needs Support may be one-time or recurring, determined case-by-case basis Coworking Space Support ITA can cover the cost of a coworking space if you prefer Language Learning (Fully Covered) ITA fully covers language learning to support communication and personal growth. English or Spanish, available to all team members globally. Continuing Education Support ITA supports professional growth and skill development. Educational expenses may be covered on a case-by-case basis.

Fully remote You can work from anywhere in the world.
$$$ Full time
JavaScript Java Python Node.js
En <Devaid> nos apasionan los desafíos tecnológicos y nuestros clientes lo saben. Por lo anterior, nos plantean problemáticas que nos obligan a estar constantemente probando e implementando nuevas tecnologías.
Trabajamos fuertemente en la nube ya que somos Partner Premier de Google Cloud en Chile, por lo que tendrás la oportunidad de formarte como un profesional cloud.
Dependiendo de las necesidades del cliente, <Devaid> ofrece soluciones web, móviles, integración de sistemas, entre otros. Esto permite acceder a la herramienta sin importar el dispositivo ni el lugar dónde se encuentra. Permitimos el trabajo colaborativo entre múltiples usuarios manteniendo una base centralizada de información.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Esperamos que puedas desempeñarte en las siguientes actividades:
  • Creación de pipelines de carga y transformación de datos.
  • Modelamiento de datos y creación de Data Warehouse y Data Lakes.
  • Integración de sistemas.
  • Creación de modelos de machine learning con herramientas low code autoML.
Vas a participar como ingeniero de datos en equipos de consultores que prestan servicios a empresas importantes en Chile. En estos equipos participan distintos perfiles, tales como desarrolladores de software, arquitectos de datos y data scientists. Los servicios se prestan de forma remota y son prestados por proyecto (no es outsourcing de recursos), por lo que puedes trabajar desde tu casa sin problemas. Diariamente vas a tener reuniones con tu equipo para coordinar actividades y resolver temas complejos que vayan surgiendo.

Requerimientos del cargo

Los requisitos para un buen desempeño de las funciones son:
  • 1 año de experiencia como Data Engineer.
  • Programación en lenguaje Python, NodeJS o Java (al menos uno de los 3).
  • Conocimiento de soluciones de Data Warehouse y ETL.
  • Conocimiento de plataformas de procesamiento de datos como Apache Spark, Dataflow o similares.
  • Haber trabajado previamente con alguna nube pública (AWS, Azure o GCP).
Si no cumples alguno de estos puntos no te desanimes, queremos conocerte igualmente.
El trabajo es 100% remoto, pero es necesario que tengas RUT y/o papeles al día en Chile.

Deseables

Suman puntos en tu postulación si cumples alguna de las siguientes habilidades, ninguno de estos son excluyentes:
  • Conocimiento de herramientas Google Cloud, entre ellas Google BigQuery, Dataflow, Data Fusion y Pub Sub.
  • Experiencia en plataformas de deployment de infraestructura como Terraform.
  • Experiencia utilizando la herramienta de consola gcloud.

Beneficios

Prometemos un ambiente muy grato de trabajo, lleno de desafíos y donde podrás ver los proyectos en los que estas involucrada/o siendo utilizados en un corto tiempo activamente por nuestros clientes, lo que siempre es muy gratificante.
Otras actividades:
  • Actividades mensuales (Cupones de Food delivery, juegos en línea, actividades grupales).
  • Actividad paseo anual: La empresa se junta por 2 días en algún lugar turístico para realizar actividades grupales y unir al equipo.
  • Día libre flexible en tu cumpleaños.
  • Capacitaciones en lo que más te guste.
  • Certificaciones Google Cloud: Programa de certificación en distintas ramas profesionales de GCP, gracias a que somos Partner Premier de Google Cloud en Chile.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Devaid pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Education stipend Devaid covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $1500 - 2500 Full time
Data Consultant
  • Artefact LatAm
  • Bogotá &nbsp Santiago &nbsp Ciudad de México (Hybrid)
Python Data Analysis Excel Power BI
Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.
Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

© Get on Board.

Funciones del cargo

  • Realizar investigación y búsqueda de información relevante para el proyecto; estructurando y ejecutando los análisis de información
  • Desarrollar diagnósticos y proponer soluciones según las necesidades específicas de cada cliente, basadas en un proceso analítico y con una fuerte orientación estratégica
  • Desarrollar entregables accionables, gestionables, innovadores, y con sentido de negocios para el cliente, pensados directamente en la transformación digital
  • Aprender rápidamente de diversos negocios e industrias, así como las herramientas y metodologías requeridas para llevar a cabo el trabajo con cada cliente
  • Presentar el desarrollo y resultados de manera efectiva, para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente, adaptándose a diversos stakeholders
  • Apoyar en la creación de propuestas de proyectos para potenciales clientes, mediante un estudio detallado de la industria y las posibles soluciones que más se ajusten a sus problemas
  • Construir una relación de trabajo con el cliente
  • Apoyar al equipo en la planificación estratégica, y traspasando conocimiento y buenas prácticas

Requerimientos del cargo

  • Formación de Ing. Civil Industrial, Ing. Comercial, Ing. Industrial, Economista o carreras relacionadas
  • Experiencia laboral de 1 a 2 años en consultoría o roles relacionados
  • Dominio avanzado de herramientas de Microsoft Office (Excel, PowerPoint, Word).
  • Conocimiento y manejo de diversas herramientas y soluciones digitales.
  • Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.

Algunos deseables no excluyentes

  • Manejo de Python y herramientas de visualización como PowerBI, Tableau
  • Conocimientos de Data Science.
  • Proficiente en ingles profesional

Algunos de nuestros beneficios para esta posición son:

Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)
...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $400 - 600 Full time
Data Pipeline Engineer
  • Tritone Analytics, Inc
Python Excel SQL Data Transformation

About Tritone Analytics: Tritone Analytics is a music-technology startup building a forensic royalty auditing platform for the music industry. We help artists, managers, and rights-holders identify unpaid or misreported royalties by combining deterministic data systems with modern AI workflows.

We work with messy, real-world data — distributor reports, royalty statements, contracts — and turn it into structured, queryable systems that power financial analysis and AI-assisted auditing.

Project scope: You will contribute to the core data infrastructure that underpins our platform, focusing on data ingestion, transformation, validation, and the preparation of data for AI workflows. This role sits at the intersection of data engineering, analytical systems, and AI pipelines, ensuring reliable, scalable data processing from messy sources to structured datasets.

Apply directly through getonbrd.com.

What You’ll Work On

  • Build and maintain pipelines that transform messy CSVs, metadata exports, and contracts into structured datasets.
  • Design and enforce canonical schemas across inconsistent data sources to enable reliable analytics.
  • Write SQL to validate outputs, reconcile datasets, and support financial analysis.
  • Debug and improve data quality across ingestion and transformation stages.
  • Support document ingestion workflows (chunking, preprocessing, metadata tagging).
  • Help prepare structured inputs for LLM-based workflows (RAG, extraction, classification).
  • Improve reliability of pipelines (error handling, logging, testing).

What You’ll Need

Core Requirements (Must Have): Strong Python for data processing and scripting with real datasets; strong SQL skills (joins, aggregations, validation queries, debugging data issues); proven experience working with messy or inconsistent data; understanding of ETL pipelines and data transformation workflows; ability to debug data issues and explain root causes.

We value curiosity, collaboration, and a bias toward shipping reliable data products. Candidates who enjoy digging into messy datasets, communicating data issues clearly, and partnering with data scientists and engineers to operationalize AI workflows will excel. Prior experience in music rights or financial data domains is a plus.

Desirable but Not Required

Nice to Have: Experience with DuckDB, Polars, Pandas, or PyArrow; familiarity with Parquet or columnar data formats; exposure to vector databases or RAG systems; experience handling large CSV datasets or financial data; basic understanding of LLM workflows.

Benefits

Benefits to be discussed at time of conversion to a full-time role.

We offer a collaborative, founder-led culture with an emphasis on curiosity, continuous learning, and shipping impactful data products. Competitive compensation, flexible work hours, and opportunities for professional growth in a rapidly evolving music-tech space. Our team is distributed; we value autonomy and ownership over your projects. We support conference attendance, training, and peer knowledge sharing. We look forward to discussing how Tritone can support your career trajectory.

Gross salary $2800 - 3600 Full time
Python Data Analysis SQL Business Intelligence

Company & Project Context
BNamericas is a leading Latin American B2B market intelligence platform with 28 years of experience delivering news, project updates, and company data across strategic sectors such as Electric Power, Infrastructure, Mining & Metals, Oil & Gas, and ICT. The Business Analyst will join a Product & Operations team in a subscription-based SaaS environment, helping transform complex data into clear business insights that drive strategic decisions and commercial outcomes.

Apply at getonbrd.com without intermediaries.

Key Responsibilities

  • Monitor and analyze platform usage patterns, engagement trends, and friction points.
  • Design and maintain executive dashboards (Amplitude and other BI tools).
  • Define and track KPIs related to user engagement, retention (GRR, NRR), product adoption, conversion, and customer satisfaction.
  • Translate behavioral data into actionable recommendations to improve adoption, retention, and user experience.
  • Support product discovery by validating hypotheses with real usage data.
  • Evaluate product releases using defined KPIs and performance benchmarks.
  • Develop measurement frameworks for product-market fit and feature impact.
  • Support forecasting of renewals and revenue trends; analyze GRR, NRR, and DRR evolution by ICP.
  • Conduct first-year account performance analyses and provide conversion, lead source, and sales performance insights.
  • Assist Customer Success with client journey analyses and Executive Business Reviews (EBRs).
  • Perform time & motion studies to identify operational efficiencies.
  • Collaborate with development teams to ensure accurate event tracking and instrumentation; design and audit tracking plans.
  • Validate data consistency and quality; maintain governance across cross-functional data flows.
  • Produce QBRs, executive performance presentations, and operational dashboards; present insights to leadership.
  • Transform complex datasets into structured business narratives with recommended actions; contribute to strategic product discussions.

What You'll Do

We are seeking a highly analytical, proactive, and business-oriented Business Analyst to join our Product & Operations team within a B2B subscription-based SaaS environment. This role sits at the intersection of Product, Customer Success, Sales, and Operations, translating complex data into clear business insights that drive strategic decision‑making. You will analyze user behavior, product performance, revenue trends, retention metrics, and operational KPIs to optimize product development, customer experience, and commercial outcomes. The ideal candidate is technically strong in data analysis and an excellent communicator, capable of translating data into compelling narratives for executive and cross-functional audiences in English (Spanish is a plus).

Desired Qualifications

Education in Industrial Engineering, Business, Data Science, Information Systems, Statistics, Applied Mathematics, or related quantitative fields. A Master’s degree or advanced certifications are a plus. 2–4+ years in Business Analytics, Product Analytics, BI, or similar data-focused roles. Experience in a subscription-based B2B SaaS environment and cross-functional collaboration with Product, Commercial, and Operations teams. Strong proficiency in SQL; Python (Pandas), Amplitude (or Mixpanel/GA4), and dashboarding tools (Power BI, Looker, Tableau). Excellent English communication and executive-ready storytelling with data. Spanish is a nice to have. Ability to work in a fast-paced, agile environment with a proactive, ownership-driven mindset.

Benefits

En BNamericas fomentamos un ambiente laboral inclusivo, diverso, creativo y altamente colaborativo. Nuestro equipo es dinámico, comprometido y siempre dispuesto a apoyarse mutuamente, generando un clima agradable y motivador.

Ofrecemos múltiples beneficios, tales como bono por referidos para la incorporación de nuevos talentos recomendados, salidas anticipadas en fechas especiales como fiestas patrias y Navidad, oportunidades de formación continua y desarrollo profesional, y un dress code informal que permite autenticidad y comodidad en el trabajo.

Te invitamos a formar parte de una empresa que valora la diversidad y el equilibrio entre la vida personal y laboral, y que promueve un trabajo orientado a objetivos, empoderado y apasionado. ¡Únete a nosotros!

Fully remote You can work from anywhere in the world.
$$$ Full time
Data Engineer SSR
  • TCIT
  • Santiago (Hybrid)
Python Big Data BigQuery ETL

En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de experiencia. Trabajamos en proyectos que transforman digitalmente a organizaciones, desde sistemas de gestión agrícola y de remates en línea, hasta soluciones para tribunales y monitoreo de certificaciones para minería. Participamos en iniciativas internacionales, colaborando con partners tecnológicos en Canadá y otros mercados. Nuestro equipo impulsa soluciones de calidad y sostenibles, con foco en impacto social. Buscamos ampliar nuestro equipo con talentos que quieran crecer y dejar huella en proyectos de alto impacto en la nube.

Applications: getonbrd.com.

Funciones principales

  • Responsable de entregar soluciones eficientes, robustas y escalables en GCP. Tu rol implicará:
  • Diseñar, construir y mantener sistemas de procesamiento de datos escalables y de alto rendimiento en GCP.
  • Desarrollar y mantener pipelines de datos para la extracción, transformación y carga (ETL) de datos desde diversas fuentes en GCP.
  • Implementar soluciones para el almacenamiento y procesamiento eficiente de grandes volúmenes de datos utilizando las herramientas y servicios de GCP.
  • Colaborar con equipos multidisciplinarios para entender los requisitos y diseñar soluciones adecuadas en el contexto de GCP.
  • Optimizar el rendimiento de los sistemas de procesamiento de datos y garantizar la integridad de los datos en GCP.

Requisitos y perfil

Buscamos un Data Engineer con dominio en Python y experiencia demostrable trabajando con soluciones en la nube. El/la candidato/a ideal deberá combinar habilidades técnicas con capacidad de comunicación y trabajo en equipo para entregar soluciones de datos de alto rendimiento.

Requisitos técnicos:

  • 1- 4 años de experiencia en Ingeniería de Datos y GCP (Excluyente)
  • Experiencia desarrollando pipelines de datos con Python (pandas, pyarrow, etc.).
  • Experiencia en Google Cloud Platform (GCP) y servicios relacionados con datos (ETL/ELT, Dataflow, Glue, BigQuery, Redshift, Data Lakes, etc.).
  • Experiencia con orquestación de procesos (Airflow, Prefect o similares).
  • Buenas prácticas de seguridad y gobernanza de datos, y capacidad para documentar soluciones.

Habilidades blandas:

  • Comunicación clara y capacidad de trabajar en equipos multifuncionales.
  • Proactividad, orientación a resultados y capacidad de priorizar en entornos dinámicos.
  • Ingenio para solucionar problemas y aprendizaje continuo de nuevas tecnologías.

Deseables

Experiencia con herramientas de gestión de datos en la nube (BigQuery, Snowflake, Redshift, Dataflow, Dataproc).

Conocimientos de seguridad y cumplimiento en entornos de datos, experiencia en proyectos con impacto social o regulaciones sectoriales.

Habilidad para escribir documentación técnica en español e inglés y demostrar capacidad de mentoría a otros compañeros.

Conditions

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
$$$ Full time
Databricks Administrator
  • Improving South America
Python SQL Linux Virtualization
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil.

Contribuirás a la construcción y mantenimiento de soluciones de datos que soportan analítica, reporting y la toma de decisiones operativas en toda la organización.

Trabajando de cerca con data engineers y otros perfiles tecnológicos, apoyarás las plataformas que permiten a los equipos transformar datos en insights relevantes.

En este rol, te enfocarás en la gestión de plataformas de datos y en su rendimiento general. Colaborarás con equipos multifuncionales para entender requerimientos de datos, mejorar sistemas existentes y entregar soluciones que respondan a necesidades del negocio.

Esta es una excelente oportunidad para seguir desarrollando tus habilidades en data engineering mientras contribuyes a impulsar decisiones basadas en datos a escala

This job is exclusive to getonbrd.com.

Job functions

  • Monitorear y mantener la salud, disponibilidad y rendimiento de instancias de Snowflake y Databricks, utilizando herramientas nativas y estándares internos
  • Revisar periódicamente métricas de uso, logs del sistema y consumo de recursos para detectar y abordar anomalías
  • Asegurar la ejecución de actualizaciones, parches y respaldos conforme a políticas y estándares definidos
  • Investigar incidentes y degradaciones del servicio, gestionando su resolución o escalamiento para minimizar el impacto en el negocio
  • Administrar el ciclo completo de accesos: provisión, desprovisión y asignación de roles en Snowflake y Databricks, garantizando cumplimiento de estándares de seguridad
  • Implementar y auditar controles de acceso a datos, trabajando junto a equipos de seguridad (InfoSec) y líderes de plataforma
  • Mantener actualizados grupos, permisos y accesos según cambios organizacionales o necesidades de proyectos
  • Actuar como punto principal de contacto para soporte técnico e incidentes relacionados con las plataformas
  • Asesorar a los equipos en buenas prácticas de uso eficiente y seguro de las plataformas (optimización de costos, data sharing, orden de workspaces)
  • Mantener documentación clara y actualizada de la plataforma (onboarding, FAQs, guías de troubleshooting)

Qualifications and requirements

  • Título universitario en Ciencias de la Computación, Sistemas de Información o carrera afín, o experiencia equivalente
  • +2 años de experiencia administrando plataformas Snowflake y Databricks (o al menos una con conocimiento sólido de la otra)
  • Dominio de SQL, scripting (Python o Shell) y ecosistemas de datos en la nube (AWS, Azure o GCP)
  • Conocimiento en herramientas de automatización (Terraform, AWS CloudFormation, Databricks CLI/API, entre otros)
  • Experiencia gestionando usuarios, roles y controles de seguridad en entornos regulados
  • Capacidad para diagnosticar y resolver problemas de plataforma
  • Experiencia con herramientas de monitoreo, logging y alertas
  • Inglés intermedio -avanzado o avanzado (indispensable debido a que se realizan reuniones con equipos internacionales)

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Gross salary $1800 - 2500 Full time
JavaScript Python Redis Node.js

Coyan Services es una empresa latinoamericana especializada en soluciones de staffing tecnológico y consultoría de talento IT. Operamos en diferentes países de LATAM conectando profesionales altamente calificados con proyectos de innovación en empresas multinacionales.
Nuestra visión es ser un puente entre el mejor talento de la región y las organizaciones que están transformando el futuro con tecnología, impulsando equipos diversos, remotos y con cultura de colaboración.

Una empresa tecnológica privada busca incorporar un/a DevOps para trabajar en un proyecto estratégico con uno de sus clientes en la región. La posición es 100% remota, en modalidad freelancer, y está abierta a profesionales de cualquier país de Latinoamérica.

Apply directly through getonbrd.com.

Objetivos y Responsabilidades

Objetivos del rol:

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD).
  • Integrar prácticas DevOps en el ciclo de vida del desarrollo de software en conjunto con los equipos de desarrollo.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Garantizar la disponibilidad, seguridad y rendimiento de los sistemas en la nube.

Responsabilidades:

  • Diseñar, implementar y mantener pipelines CI/CD.
  • Colaborar con equipos de desarrollo en la adopción de prácticas DevOps.
  • Automatizar infraestructura y despliegues con IaC.
  • Administrar y mantener la infraestructura en AWS y servidores.
  • Monitorear y mejorar disponibilidad, rendimiento y seguridad.

Requisitos Técnicos

  • Experiencia sólida (3+ años) administrando servicios en AWS (Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, S3, EC2, ECS, Secret Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions).
  • Experiencia en infraestructura como código (Terraform y CloudFormation – excluyentes).
  • Experiencia en despliegue de aplicaciones móviles offline.
  • Uso de GitHub (gestión de código fuente) y GitHub Actions (automatización de despliegues).
  • Experiencia en análisis de código estático con SonarCloud.
  • Desarrollo en Python y Node.js con enfoque operacional.
  • Conocimientos en SQL, bases de datos transaccionales, NoSQL y bases embebidas.

Habilidades blandas

  • Trabajo en equipo y colaboración.
  • Autogestión y proactividad.
  • Comunicación efectiva.

Conditions

  • Freelancer

Fully remote You can work from anywhere in the world.
$$$ Full time
JavaScript Java Python Agile
CoyanServices busca un Ingeniero Senior en Automatización de Pruebas para trabajar 100% remoto en modalidad freelance. El proyecto se enmarca dentro de una iniciativa regional de QA Automation que abarca la automatización de pruebas para UI, backend y APIs, con un foco en garantizar la calidad y la trazabilidad de soluciones digitales a lo largo de pipelines CI/CD. El equipo es distribuido regionalmente y colabora con áreas de negocio en varios países de Latinoamérica. El profesional será referente técnico en QA Automation, promoviendo prácticas DevOps, integración de pruebas en despliegues y mejora continua, con interacción constante entre IT y negocio. El rol implicará liderar, diseñar y mantener estrategias de automatización, definir criterios de aceptación de pruebas y asegurar que el producto cumpla con los requerimientos funcionales y las reglas de negocio definidas.

Exclusive to Get on Board.

Objetivos del rol:

  • Diseñar, implementar y mantener automatización de pruebas end-to-end (UI, backend y APIs) dentro de pipelines CI/CD.
  • Asegurar la calidad, trazabilidad y cobertura de las soluciones digitales de la compañía.
  • Ser referente técnico en QA Automation, promoviendo la adopción de prácticas DevOps y cultura de mejora continua.
  • Colaborar con equipos distribuidos regionalmente para garantizar la calidad en todas las etapas del desarrollo.

Perfil y habilidades requeridas:

Requisitos técnicos:
  • Experiencia ≥5 años en QA Automation con enfoque en UI, backend y APIs.
  • Lenguajes y frameworks: Python, Node.js, TypeScript, Java; Jest, Pytest, unittest, JUnit/TestNG.
  • UI Testing: Cypress, Playwright, React Testing Library, Jest, Jasmine o Karma (al menos dos).
  • API Testing: Postman/Newman, Karate DSL, REST Assured.
  • Gestión de pruebas de rendimiento (deseable): Artillery, JMeter o k6.
  • Infraestructura y CI/CD: GitHub Actions, Docker, LocalStack (opcional), Terraform, CloudFormation, SAM.
  • Cloud: AWS (obligatorio).
  • Gestión y calidad: Jira, Confluence, Xray/Zephyr, SonarQube.
  • Métodos: Agile/Scrum y DevOps.
Habilidades blandas:
  • Capacidad de análisis y pensamiento crítico.
  • Liderazgo técnico y mentoring.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Compromiso con la mejora continua y la calidad.

Habilidades blandas:

Habilidades blandas:
  • Capacidad de análisis
  • Liderazgo técnico y mentoría.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Orientación a la mejora continua y cultura de calidad.

Beneficios y cultura

Objetivos del rol:
Beneficios y cultura de CoyanServices (basado en el formato proporcionado y adaptado al contexto remoto):
  • Modalidad freelance 100% remoto, con flexibilidad horaria y posibilidad de colaborar con equipos de distintos países.
  • Participación en proyectos regionales con enfoque en QA Automation de alto impacto.
  • Acceso a herramientas de prueba modernas, pipelines CI/CD y entornos reproducibles con Docker y LocalStack.
  • Ambiente de trabajo colaborativo, con énfasis en mejora continua, DevOps y buenas prácticas de calidad.
  • Oportunidad de crecimiento técnico y mentoría para otros ingenieros del equipo.

Fully remote You can work from anywhere in the world.
Gross salary $3500 - 4500 Full time
Python Linux DevOps Continuous Integration
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

This job offer is available on Get on Board.

Key Responsibilities

  • Design, deploy, and maintain AWS infrastructure aligned with best practices for scalability, availability, and security.
  • Configure and manage Auto Scaling groups, EC2 instances, RDS databases, and CloudFront distributions.
  • Automate infrastructure provisioning and updates using Terraform.
  • Monitor and optimize system performance through metrics, alerts, and dashboards.
  • Manage FSx file systems, ensuring efficient performance and integration with Windows environments.
  • Collaborate with cross-functional teams to troubleshoot, optimize, and deliver stable infrastructure solutions.
  • Maintain detailed documentation of configurations, processes, and policies.

Requirements & Experience

Minimum 12+ years of proven experience in systems or cloud engineering roles, with 10+ years focused on AWS at scale. Strong expertise in Auto Scaling, Terraform, EC2, FSx, CloudFront, RDS, and monitoring/alerts. AWS Certification (Architect or equivalent) is required. Proficiency in Windows environments (not Linux) and fluent English with professional communication skills to coordinate across international teams.
Nice to Have: experience with Azure or GCP, CI/CD tools (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting with Python or PowerShell, and exposure to cloud security, governance, and compliance frameworks.

Nice to Have

Additional exposure to Azure or GCP cloud platforms, familiarity with CI/CD pipelines (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting in Python or PowerShell, and knowledge of cloud security, governance, and compliance frameworks are highly desirable.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
Gross salary $2400 - 2900 Full time
Python Linux DevOps Virtualization

Coderslab.io es una firma de tecnología que ayuda a las empresas a transformar y hacer crecer sus negocios mediante soluciones innovadoras. Formamos parte de una organización en rápida expansión, con más de 3,000 empleados globalmente y presencia en América Latina y Estados Unidos. Trabajarás en equipos diversos compuestos por los mejores talentos tecnológicos, participando en proyectos desafiantes que impulsarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno dinámico y orientado a resultados.

© Get on Board. All rights reserved.

Funciones

  • Implementar infraestructura reproducible y versionada en OCI utilizando Terraform.
  • Automatizar despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en GitLab.
  • Diseñar y operar arquitecturas basadas en contenedores con Kubernetes y Helm.
  • Gestionar la seguridad de la plataforma con HashiCorp Vault e políticas de OCI IAM.
  • Realizar hardening, tuning y troubleshooting de sistemas Oracle Linux.
  • Integrar servicios mediante Kong API Gateway y políticas personalizadas.
  • Garantizar el cumplimiento de estándares como PCI-DSS y prácticas de ciberseguridad.
  • Desarrollar scripts de automatización en Bash y Python (integración con APIs REST).
  • Colaborar con equipos de seguridad, desarrollo y operaciones para entregar soluciones robustas y escalables.

Requisitos

  • Más de 5 años de experiencia en roles de DevOps/Platform Engineering.
  • Experiencia demostrable en Oracle Cloud Infrastructure (OCI).
  • Dominio avanzado de Oracle Linux y administración de contenedores (Docker, Kubernetes).
  • Conocimiento sólido en seguridad de infraestructura y gestión de secretos.
  • Experiencia en entornos regulados o bancarios (deseable).
  • Capacidad para trabajar en entornos con alta disponibilidad y resiliencia.

Fortalezas Valoradas

Experiencia en implementación de infraestructura como código, automatización de despliegues mediante GitOps, y gestión de secretos en entornos sensibles. Conocimiento en PCI-DSS y prácticas de ciberseguridad, así como habilidades de scripting y resolución de incidentes en entornos críticos.

Beneficios

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

Fully remote You can work from anywhere in the world.

Sobre trabajos de Python

Remote job offers for Python developers. Backend, Data Science, Machine Learning and automation. International companies hiring in LATAM. En RemoteJobs.lat conectamos a profesionales de Latinoamerica con empresas que ofrecen trabajo 100% remoto. Todas nuestras ofertas permiten trabajar desde cualquier ciudad, con pagos en dolares o moneda internacional.

Rango salarial

$3,500 - $9,000 USD/mes

Posiciones abiertas

732

Ubicacion

100% Remoto LATAM

Tip: Tambien puedes buscar ofertas en skills relacionados como Django,

Python salary ranges by seniority

Estimated ranges in USD/month for remote contracts with international companies. Vary by company, complementary stack and client location.

Level Years of experience Range USD/month
Junior 0-2 $3,500 - $4,875
Mid-level 2-4 $4,600 - $6,525
Senior 4-7 $6,250 - $8,175
Lead/Staff 7+ $7,625 - $9,000

Companies hiring remote Python from LATAM

Some companies that have historically hired Python profiles to work 100% remotely from Latin America:

Mercado Libre Globant Auth0 Nubank Cloudwalk Stripe GitLab Crossover Toptal

Frequently asked questions

The typical range for a remote Python working for international companies is $3,500 - $9,000 USD/mes. The exact amount depends on seniority, the company's country, and whether the contract is full-time or project-based.

The most in-demand Python profiles usually combine Django, Flask, Fastapi. Adding one of these opens more job offers and often increases salary range by 15% to 30%.

For US/EU companies yes: B2 minimum for technical interviews. There are alternatives at LATAM companies (Mercado Libre, Globant, Rappi) or agencies like Toptal where intermediate English is enough to start.

The 3 highest-impact things: (1) a public GitHub with 2-3 solid projects relevant to Python, (2) an English LinkedIn profile optimized for recruiters, and (3) applying to 20+ offers per week instead of 2-3.